首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 687 毫秒
1.
采用视觉加权自适应阈值量化的彩色图像小波编码方法   总被引:1,自引:0,他引:1  
提出了一种基于视觉特性的彩色图像小波变换编码方法。该方法是以一种简单的灰度图像小波编码方法为基础,首先通过小波变换将图像进行多分辨率分解;然后对彩色分量的高频子带数据进行适当的抛弃;对小波图像的高频数据采取自适应阈值量化方法克服恢复图像中的分量独立点噪声污染现象;最后根据小波系数的码字分布特征,采用行程编码结合Huffman编码。该方法可保证重建图像的主观视觉效果良好,而且具有较高的压缩倍率。  相似文献   

2.
提出了一种基于视觉特性的彩色图像小波变换编码方法.该方法是以一种简单的灰度图像小波编码方法为基础,首先通过小波变换将图像进行多分辨率分解;然后对彩色分量的高频子带数据进行适当的抛弃;对小波图像的高频数据采取自适应阈值量化方法克服恢复图像中的分量独立点噪声污染现象;最后根据小波系数的码字分布特征,采用行程编码结合Huffman编码.该方法可保证重建图像的主观视觉效果良好,而且具有较高的压缩倍率.  相似文献   

3.
基于DCT和RLE的灰度图像压缩方法   总被引:1,自引:0,他引:1  
离散余弦变换具有很强的"能量集中"特性,图像信号的主要能量都集中在离散余弦变换后的低频部分,而图像高频部分的系数经常为零.为了滤除图像信号中各种相关性而存在的冗余信息,针对灰度图像提出了基于离散余弦变换和游程编码的压缩方法.该方法对给定的灰度图像进行离散余弦变换分块转换,并对转换后的高频部分进行域值量化,滤除高频分量,然后进行游程编码,实现灰度图像的压缩.最后在VisualC++6.0开发环境下对方法进行实验,仿真实验表明,在量化域值选取恰当时,可达到较好的压缩效果.  相似文献   

4.
针对单幅图像下,基于稀疏表示的去雨算法存在残差较大而导致图像恢复效果不理想的问题,提出了一种优化图像高频部分几何分量的去雨方法.首先采用平滑滤波做图像分解,得到雨图像的高频部分;然后结合稀疏表示与近邻传播算法分离出图像高频部分的雨分量,用图像的高频部分减去雨分量并做平滑处理,以此作为几何分量;此外,对稀疏表示过程得到的字典进行再分类,完善雨分量与非雨分量的区分,最后完成图像恢复.实验结果表明,该方法能有效利用图像的几何信息来解决纹理恢复误差较大的问题,实现更精确的纹理恢复和雨分量去除.  相似文献   

5.
针对OPTFR(Optimum Time-Frequency Resolution,最优时频分辨)多小波,设计了一种平衡滤波器,将其应用于红外和可见光图像融合.对红外图像和可见光图像分别进行三层OPTFR多小波变换,提取两幅图像的低频分量和不同尺度的高频分量.由于图像的大部分能量集中在低频分量上,而不同尺度上的高频分量反映了图像在不同尺度上的细节信息,所以在对源图像融合时,对低频分量和高频分量分别采用能量和方差的加权平均进行融合,对这些融合后的分量进行重构,得到融合图像.仿真结果表明:和以往的融合算法相比,该算法强化了源图像的细节信息,提高了融合效果.  相似文献   

6.
一种基于模糊集和小波变换的图像融合方法   总被引:4,自引:0,他引:4  
提出了一种基于小波变换和模糊集的图像融合算法 .其基本思想是 :首先对图像进行小波变换 ,获得图像的低频和高频分量 ;随后在融合过程中 ,对低频和高频分量采取不同的融合策略 ,即对低频分量采用平均能量法进行融合 ,对高频成分利用图像的模糊集 ,寻求一个模糊隶属函数作为融合算子进行融合 ;最后再对融合后的图像进行小波反变换 ,重构出融合后的图像 .实验结果证明了方法的有效性 .  相似文献   

7.
提出了一种基于WT和NSCT的复合医学图像融合算法。首先,对原始图像采用NSCT变换获得各方向的低频分量和高频分量,然后计算图像之间的相关系数,采用NSCT根据不同分解层的方向特征,对高频系数根据方向区域进行能量融合。最后,重新组合融合后的高频和低频分量,采用反变换的NSCT得到最终的图像融合结果。实验表明了该方法能完好保留原始图像的边缘和过渡区域信息,具有较好的细节表征能力和融合效果。  相似文献   

8.
一种基于子波变换的改进型零树量化编码算法   总被引:2,自引:0,他引:2  
该文在图像子波变换的 基础上,提出一种改进型零树量化编码算法。该算法保留了原算法的优点,并引入频率优先原则,改进了原自救中存在的不足:当压缩比逐渐增大时,尤其当所处理的图像含高频信息丰富的时候,所恢复图像的低频成份损失较严重,使得重建质量变得很差。实验表明,在相同压缩经条件下,改进算法MSE得到明显减少。尤其对含高频分量丰富的图像,处理效果更为理想。  相似文献   

9.
把散度的概念引入到图像分析中,考虑到图像在不同方向上的性质不同,提出了一种基于散度的相关性拉普拉斯变换不同焦点图像融合算法.首先对源图像进行相关性拉普拉斯分解,获得图像的低频和高频分量;然后对低频分量采用平均能量法进行融合,对高频分量利用图像梯度场的散度作为显著性特征进行融合;最后对融合后的图像分量进行拉普拉斯反变换重构出融合图像.实验结果表明该方法的保真度更高,边缘信息保留性能更好.  相似文献   

10.
文章利用经验模式分解算法的自适应性及高频噪声的强获取能力.对图像进行分解得到固有模式分量.再运用全变分模型对高频的固有模式分量进行去噪处理,处理后的分量与其他未进行处理的低频固有模式分量及剩余模式进行合成.采用峰值信噪比来比较处理后的加噪图像与处理前的加噪图像.结果表明该方法在提高峰值信噪比的同时,也使得图像的主观视觉效果更好.  相似文献   

11.
为进一步降低基于可靠度的(Low Density Parity Check,LDPC)译码算法复杂度,提出一种基于量化修正的低复杂度LDPC译码算法,该算法在对信道信息预处理时引入量化信息修正处理策略,从而避免在译码迭代过程中进行译码信息修正处理操作,在保持译码性能的同时,较大幅度地降低译码复杂度。针对均匀和非均匀量化方案,本文实现了基于修正系数的均匀量化和基于列重修正的非均匀量化两种译码方案。仿真实验结果表明,所提出的两种译码方案在算法复杂度明显较低的情况下,仍然与MRBI-MLGD译码算法具有相同的译码性能与收敛速度。特别地,在基于列重修正的非均匀量化方案中,只需3-4 bits的低比特量化即可达到均匀量化中高比特量化(8 bits)相同的迭代次数和误比特率性能。  相似文献   

12.
本文研究了两种LPc声道参数的量化方法。首先研究了反射系数(下称R参数)的量化方法,采用最小偏差量化对10个R参数用36比特进行编码,使平均频谱偏差低于1dB。其次研究了线谱对(LSP)参数的提取及量化,提出了一种快速的便于实时实现的LSP参数的提取方法,并对10个LSP参数用30比特进行自适应量化。性能比较结果表明,LSP参数的量化优于R参数,并且具有较强的抗误码性能。  相似文献   

13.
针对分布式视频编码中的量化失真和LDPC(Low Density Parity Check)编解码失真问题,提出了基于边缘分类的DCT(Discrete Cosine Transform)系数重组和基于边缘Hash的子块修复方案.首先根据子块边缘方向的不同,WZ (Wyner-Ziv)帧子块被分成3类,对不同类型的子块,其DCT系数采用不同的扫描方式并重组,使较大的DCT系数被组合在一起,减小了交流系数的量化步长.同时,把子块边缘信息作为Hash信息,指导WZ帧LDPC解码出错的子块的修复.最后,通过实验证实了提出的方法能使高量化等级下编码器的PSNR(Peak Signal to Noise Ratio)性能增益达到0.5 dB左右.  相似文献   

14.
基于H.264感兴趣区域平稳视频主观质量的码率控制   总被引:1,自引:0,他引:1  
为提高低延时低码率条件下的视频质量,提出一种H.264帧层和宏块层的码率控制算法,实现平滑主观质量和平稳缓冲区波动的一种新的权衡。帧层采用比例-积分-微分算法进行帧层码率分配;在宏块层建立一种新的基于运动外推的编码复杂度传播模型,在保证感兴趣区域具有平稳质量的前提下,在感兴趣区域和非感兴趣区域之间进行比特分配;在各区域中,根据编码复杂度传播模型,基于率失真优化选择宏块量化参数。仿真结果表明:和传统JM算法相比,感兴趣区域的质量波动可减少达35.5%~57.1%。该算法在保证较低缓冲区波动的前提下,具有平滑的主观视频质量。  相似文献   

15.
为提高低延时低码率条件下的视频质量,提出一种H.264帧层和宏块层的码率控制算法,实现平滑主观质量和平稳缓冲区波动的一种新的权衡。帧层采用比例-积分-微分算法进行帧层码率分配;在宏块层建立一种新的基于运动外推的编码复杂度传播模型,在保证感兴趣区域具有平稳质量的前提下,在感兴趣区域和非感兴趣区域之间进行比特分配;在各区域中,根据编码复杂度传播模型,基于率失真优化选择宏块量化参数。仿真结果表明:和传统JM算法相比,感兴趣区域的质量波动可减少达35.5%~57.1%。该算法在保证较低缓冲区波动的前提下,具有平滑的主观视频质量。  相似文献   

16.
一种基于零树小波的图像比率可分级编码方法的研究   总被引:1,自引:0,他引:1  
Shapiro的EZW算法具有可产生嵌入式码流、可精确控制压缩比等特点,倍受人们的关注,然而该算法还有一些不足,如在进行零树编码时,对未被包括进零树的“零值”,需要将其编成“弧立零”码,试验表明这部分编码通常占有高的代价,往往会影响到编码效率,在分析了EZW编码过程和码流的基础上,提出一种阶梯型量化和零树小波相结合的图像比率可分级性编码方法,首先对图像小波分解的较低级子带的变换系数采取一种阶梯型量化,然后对整体小波系数采用零树编码,并利用逐次逼近量化方法获得潜和式码流,以实现比率的可分级解码,它在一定程度上克服了EZW算法的不足,提高了PSNR值,试验结果验证了方法的有效性。  相似文献   

17.
GNSS数字中频信号再量化方法   总被引:1,自引:1,他引:0  
GNSS抗干扰技术需要采用高位A/D量化,而现有接收机往往采用低位A/D量化,即在抗干扰前后采用不同A/D量化位数。为了不改变GNSS接收机的现有结构,因此需要研究如何将高位量化数字信号转换为低位量化数字信号。针对传统直接截取法带来信噪比损耗的问题,本文提出了一种基于自适应门限的GNSS数字中频信号再量化方法,该方法通过转换后低位信号的最佳概率分布即高斯分布不断调整再量化门限值,根据该门限值对高位数字信号进行再量化。本文理论分析并仿真比较了传统截取法和新方法再量化损耗,结果表明新方法具有更小的再量化损耗,并且针对本文提出的再量化方法对卫星信号进行捕获仿真,证明了该方法真实可行。  相似文献   

18.
根据缓存器的状态和信道速率为待编码帧在图像层上预分配目的的视频编码比特数,使用DCT系数分布特性来表征图像特征,继而为帧内每一具体宏块选定最佳量化因子,提出了基于DCT系数分布特性的码率控制策略。并分析了算法的复杂度,提出了改进策略。模拟实验表明,该码率控制策略能有效地减少、避免缓存器出现上、下溢的情况,而输出码率趋于稳定。提高重建图像的信噪比,并且在视频图像质量没有明显失真的前提下,改进了计算复杂度。  相似文献   

19.
For the encoding bit-rate problem in H.264 wireless video communication,this paper analyzes the bit-rate computation model and the Mean Square Error distortion model,establishes the relation between the quantization parameter of the encoding bit-rate and the intra frame refresh rate of the macro block,and put forward a new ideal about the coding rate on the basis of general binomial computation model theory. Furthermore,this method not only can adaptively adjust the bit allocation and quantization parameter and prevents buffer from overflowing downward or upward under given network bandwidth,but also can apply the rate-distortion to optimize the solution method,control the encoding bits accurately and optimizes the allocation between the intra and inter frame encoding macro block.  相似文献   

20.
自适应矢量量化在语音信号处理中有广泛地应用,提出了一种基于SFCM算法的自适应矢量量化码本的训练方法,其特点是通过模糊聚类方法,重新调整训练样本与码字之间的隶属度,达到最小编码失真,使码本更适合新说话人,且计算简单·实验结果表明,可以使编码平均失真下降·  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号