首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 343 毫秒
1.
提出一种新的基于单形体几何的高光谱遥感图像混合像元丰度估计算法.该算法的目标是在已知端元矩阵的基础之上,估计高光谱图像中各个观测像素点中每个端元的丰度.根据凸几何理论,基于线性混合模型的高光谱解混问题可以看成一个凸几何问题,其中端元位于包含整个高光谱数据集的单形体的顶点,而它们对应的重心坐标则可以看作各个观测像素的丰度.提出的方法由3部分组成,分别为基于单形体体积的重心坐标计算方法、距离几何约束问题和基于内点的单形体子空间定位算法.与其他基于单形体几何的算法相比,该方法具有诸多优点.Cayley-Menger矩阵的引入使得欧式空间上的运算转化为距离空间上的运算,在降低运算复杂度的同时很好地兼顾到数据集的几何结构.而且,单形体重心的使用确立了一种快速而精确的判断方法来确定观测像素所属的子空间,进而利用递归的思想得到丰度值.此外,算法核心仅仅涉及观测点与端元之间的距离,而与波段数无关.因此,该算法无须对数据执行降维处理,从而可以避免因数据降维而造成的有用信息的丢失.仿真和实际高光谱数据的实验结果表明,所提出的算法与同类其他优秀的算法如FCLS和SPU相比,具有更高的运算精度,同时在端元数目较小时具有较快的运算速度.  相似文献   

2.
本文基于建模同步动力学行为的Kuramoto模型提出了一种新的有效层次聚类方法.本文提出的方法基于局部邻域的概念,能够实现稳定的局部同步聚类.通过不断扩大对象同步的邻域半径,所提出的方法能够实现层次化的同步聚类.此外,提出对象邻域闭包的概念,在对象间到达完全同步之前就能预测出聚类的形成,从而减少对象动态交互的时间.本文的方法不依赖于任何数据分布假设,无需任何手工参数设置,可以检测出任意数量、形状和大小的聚类.由于同步过程能够有效地规避离群点,该方法有较强的噪声数据抑制能力.在大量真实数据集和人工合成数据集上的实验结果表明本文的方法聚类准确率高,且运行时间较同类基准算法显著缩短.  相似文献   

3.
传统的图像融合算法,如IHS变换、合成变量比、主成分替换等方法所得到的融合图像通常存在不同程度的光谱扭曲现象.一种基于混合像元分解的图像融合算法(FSMA)可以很好地保持图像的光谱信息,但该算法仅在以终端端元为先验知识的模拟数据中得到了成功的应用.分析表明,由于全色波段与多光谱波段光谱响应函数不同以及多光谱波段通常不能覆盖整个全色范围,原有的FSMA算法并不能直接应用到真实遥感数据中.文中提出了一种改进的基于混合像元分解的图像融合算法(IFSMA).该算法通过重构原有算法中优化问题的目标函数,降低了对利用多光谱数据模拟全色波段亮度值的难度,使得基于混合像元分解的图像融合算法可以推广应用到真实遥感数据中.实验结果表明,IFSMA算法在光谱信息和空间信息的保持方面均优于IHS变换、合成变量比、主成分替换以及原有的FSMA等算法.  相似文献   

4.
图像平滑是计算机图形学和图像处理领域中最为重要的工具之一,其主要挑战在于平滑输入图像细节的同时如何保持原图像的显著结构特征.近几年,一种基于L0梯度极小化的图像平滑方法被提出,不仅视觉上效果出色,而且其局部均一的效果较之以往方法更为显著,然而,现有的基于L0的方法会产生阶梯效应且容易丢失部分结构.本文提出一种结合L0梯度极小化和梯度保真的平滑方法.该方法可以在保留图像主要结构的同时克服传统方法的阶梯效应,且保持包括颜色近似处在内的图像结构.实验结果表明了新方法可用于图像融合、边缘提取、JPEG格式卡通画压缩痕迹移除等应用.  相似文献   

5.
基于图分割的分段常数水平集方法Mumford-Shah模型能够很好的处理多相图像,但由于Mumford-Shah模型本身固有的原因,该方法对于长度参数也很敏感。为了解决这个难题,本文给出了一个自动估计包括长度参数的模型参数的自适应方法,该方法根据图像的噪声方差大小来确定参数。该自适应方法与基于图分割方法相结合,能够解决模型对参数敏感的难题。最后,通过计算机生成的图像和实际图像的分割结果证明了该方法是有效的。  相似文献   

6.
提出基于小波变换和频域空间分形编码的海量高光谱数据压缩新方法(AWFC).与传统的数据压缩相区别,基于图像自身灰度空间的压缩编码为第一代图像压缩技术,以小波变换为工具基于图像频域空间的编码为第二代图像压缩技术,以分形技术为代表对图像的特征空间编码为第三代图像压缩技术.同时探讨了利用成像光谱影像数据存在空间维和光谱维上的相关性,尽可能保持光谱不变情况下如何进一步提高图像压缩效率.和传统的图像有损压缩相比,在同等信息损失的情况下,AWFC算法能够极大的提高压缩比,同时和第二代以小波技术为代表压缩算法相比,本算法也具有效率更高的优势.同时提供了对光谱空间[光谱维],灰度空间[空间维]和经过小波变换WT频域空间3种分形编码FC进行对比,探讨光谱保持下的高压缩比,同时保持快速编码与解码的分形高光谱影像压缩方法.与经典的图像数据压缩方法相比,基于分形编码的图像压缩方法其压缩比在理论上可以超过经典压缩方法的几个数量级.分形图像压缩极高的压缩比,快速的解压速度在高光谱影像压缩中将会为高光谱甚至超光谱航天遥感带来新的思路.提供了将分形分块技术引入到高光谱甚至超光谱影像光谱维分块的思路,发展了光谱形态保持的图像分块技术,给出了基于光谱保持的分形编码压缩框架.最后,作为高光谱图像处理与分析系统HIPAS的一部分,我们在VC 6.0下,基于WindowsXP平台对高光谱影像压缩模块进行了软件模块实现和验证.  相似文献   

7.
现有的Anammox颗粒污泥性能评估方法中,生化反应等效测定的方法较为精确但耗时长,基于图像颜色建模的方法足够快但不够精确.因此本研究基于实例分割任务,提出一种新的结合颗粒污泥视觉特征(如颗粒污泥颜色、尺寸、粗糙度等)进行性能评估的模型,使其能够在快速评估的同时保证较高精度.首先设计采样方案,收集颗粒污泥图像后进行图像标注,进而构建颗粒污泥图像数据集.针对图像场景中样本不均衡和小目标信息难提取的难点,本研究对无锚实例分割方法BlendMask进行改进,在主干网络上结合可变形卷积提取小目标信息,在头部网络上提出自适应样本选择策略平衡样本,并重新设计了后处理、损失函数与数据增强等模块,使改进后的BlendMask方法能快速精确提取图像场景中的颗粒污泥个体.然后获取颗粒污泥的视觉特征,设计视觉特征与性能的关联模型,判别输入图像的性能类别.相比之前的研究,本文提出的方法能够快速精确地获得颗粒污泥的性能评估.最后比较了所提出改进的BlendMask方法和先进方法在颗粒污泥图像分割和性能评估方面的表现,实验结果表明,改进的BlendMask和性能评估模型精度分别提升了3.93%和1.49%,方法取...  相似文献   

8.
当前图像修复方法大多局限于处理某个单一特定任务,如超分辨率、去噪、着色等,很少有网络模型同时具备处理双重退化的能力.而现存可以解决多重图像退化问题的算法普遍结构复杂、训练时间长、人力成本较大.本文提出一种基于自适应多特征融合的双重退化修复网络(adaptive multi-feature fusion dual degradation restoration network, AMFNet),利用自引导模块(SGM)融合图像的多尺度信息,有效去除了图像中的部分缺陷;使用带有空洞卷积的编码解码器模块巩固图像的语义信息,实现了中间图像的着色;引入带有自适应多特征融合模块(AMF)的中间信息传输机制(ITM)链接以上两大结构,自适应选择保留网络递进过程的图像特征以避免有用信息的丢失.实验结果表明,基于自适应多特征融合的双重图像退化修复网络模型视觉生成效果最优,通过在CelebA和Landscape数据集上的测试分析,其结构相似度(SSIM)与感知图像补丁相似度(LPIPS)优于同类方法,而峰值信噪比(PSNR)则远超同类方法高达5 dB.  相似文献   

9.
随着医学图像处理技术的发展,3D/3D配准益受重视,尤其是在外科手术导航等医学应用中.学者们提出了各种3D/3D配准方法,但大多方法是采用传统代数方法进行配准,配准精度和效率都存在问题.本文利用非经典数学——共形几何代数重建了3D医学图像的位置关系约柬问题,分析了医学图像的共形几何变换,构造了新的3D医学图像配准相似测度,基于此提出了新的3D医学图像配准算法,用于CT和MR图像的3D配准.新算法中,以骨骼轮廓作为配准的基础点集,在骨骼轮廓的基础上采用共形几何代数构造共形几何体,接着采用新的3D医学图像配准相似测度进行三维数据的直接配准.实验表明新算法实现了三维数据的直接对齐,能较好地定位组织器官的三维位置.可以直观地体现配准结果.  相似文献   

10.
针对传统医学影像可视化软件难以实现跨平台访问,以及有限的影像数据的存储和体绘制能力,且缺少协同可视化共享的机制,本文提出一个基于云平台的医学影像可视化平台.利用云平台超大的存储容量以及强大的图形图像处理能力,在云端进行医学图像的编解码、分割及高级体绘制,然后本文提出支持协同可视化的自适应医学元数据和图像数据传输协议,通过浏览器和云端的实时交互以及浏览器和浏览器的对等传输,实现了影像的各种二维和三维协同可视化交互功能.实验结果表明,我们的平台不仅能以协同方式支持大容量数据的二维实时浏览和伪彩映射,而且支持三维的高级分割和体绘制操作,并且有较好的实时交互性.  相似文献   

11.
We show that contrasting results on trading volume's predictive role for short‐horizon reversals in stock returns can be reconciled by conditioning on different investor types' trading. Using unique trading data by investor type from Korea, we provide explicit evidence of three distinct mechanisms leading to contrasting outcomes: (i) informed buying—price increases accompanied by high institutional buying volume are less likely to reverse; (ii) liquidity selling—price declines accompanied by high institutional selling volume in institutional investor habitat are more likely to reverse; (iii) attention‐driven speculative buying—price increases accompanied by high individual buying‐volume in individual investor habitat are more likely to reverse. Our approach to predict which mechanism will prevail improves reversal forecasts following return shocks: An augmented contrarian strategy utilizing our ex ante formulation increases short‐horizon reversal strategy profitability by 40–70% in the US and Korean stock markets.  相似文献   

12.
A dynamic substructure technique which considers the electromechanical coupling effect of the PZT and the inertial effect of flexible components is presented to study the multiple impact dynamic behavior of micro/nano piezoelectric impact drive systems.It can investigate the step-like motion of object body and the multiple impacts behaviors reasonably by the comparison of the experimental data and the numerical solution of the spring-mass model.It is expected to have higher accuracy in the numerical simulat...  相似文献   

13.
Summary A quick method for measuring the expansibility of erythrocytes during the course of hypotonic hemolysis has been developed, using the MCV continuous analyzer. By this method not only the volume changes during hypotonic hemolysis, but also the critical volume, at which hemolysis of the cells occurs, could be measured in a few minutes. Furthermore, data are presented demonstrating the following; when the MCV or the MCH was larger, the critical volume increased, but the expansion ratio (critical volume/initial volume) was almost constant, about 1.90, for most erythrocytes.  相似文献   

14.
土壤呼吸监测传感网通常部署在野外,无法直接访问电力,并且土壤呼吸测量过程比较复杂、能耗较高,因此在满足重建准确度要求的前提下,希望以尽量少的采样次数来进行测量.利用土壤呼吸真实物理过程中时间序列的相关性,可以采用压缩感知理论来实现采样调度.本文提出了一种基于压缩感知的分段动态采样调度策略:利用前期测量数据进行分析得到的先验知识,对测量时间区间的数据序列进行分段线性拟合,依据分段数据子序列的线性程度度量指标,动态确定各段的采样率.土壤呼吸测量仪在进行监测时,按照分段动态变化的采样率构造压缩感知采样和重建所需的测量矩阵.实验结果表明,相比平均采样率相同的固定采样策略,本文提出的分段动态采样策略能够得到更好的重建质量,即如果以确定的重建误差阈值作为需求,则本文的动态采样策略具有更小的采样率.虽然计算动态采样率会带来一定的计算开销,但减少的采样次数可以节省更多的能量.本文提出的基于压缩感知的分段动态采样策略,虽然在土壤呼吸监测传感网的应用场景中进行了实验和分析,但其思想对于其他类似应用的采样调度和节能问题也具有借鉴价值和潜在的可应用性.  相似文献   

15.
We use dynamic factors and neural network models to identify current and past states (instead of future) of the US business cycle. In the first step, we reduce noise in data by using a moving average filter. Dynamic factors are then extracted from a large-scale data set consisted of more than 100 variables. In the last step, these dynamic factors are fed into the neural network model for predicting business cycle regimes. We show that our proposed method follows US business cycle regimes quite accurately in-sample and out-of-sample without taking account of the historical data availability. Our results also indicate that noise reduction is an important step for business cycle prediction. Furthermore, using pseudo real time and vintage data, we show that our neural network model identifies turning points quite accurately and very quickly in real time.  相似文献   

16.
现有的体模型线绘制算法采用跟踪随机种子的方式得到特征线,存在严重的时空连续性问题.本文提出一种GPU加速的体模型线绘制算法,能够在每一帧抽取全部的特征线,从而彻底解决绘制中的不连续现象.我们首先提出一种并行的特征线抽取方法,在GPU的几何处理器中计算每个立方体单元中的特征线片段.为了解决可见性判定问题,我们采用splatting的方式生成深度图,取代已有方法中的光线投射方法,获得了明显的性能提升.采用自适应的深度偏移获得满意的可见性检测结果.为了将大量的体数据存储到高速显存中,我们通过剔除无关数据和压缩编码的方式,在不影响结果的前提下显著地减少了存储和带宽消耗.实验结果表明,本文算法能够生成时空连续的线绘制结果,并且绘制速度比已有CPU算法提高一个数量级.  相似文献   

17.
大型液体运载火箭POGO动力学模型研究   总被引:1,自引:0,他引:1  
本文基于键合图理论的建模思想提出新的液体火箭跷振(POGO)稳定性分析状态变量模型,该模型的系数矩阵线性且非奇异,与以往模型相比更有利于实现模块化建模和时域仿真分析.在此基础上通过模型研究给出补燃发动机燃气系统的动力学模型,使该分析模型可以对采用补燃循环发动机的火箭进行POGO稳定性分析,是对目前POGO理论分析模型的一个重要完善.  相似文献   

18.
With the dramatic increase in the volume of experimental results in every domain of life sciences, assembling pertinent data and combining information from different fields has become a challenge. Information is dispersed over numerous specialized databases and is presented in many different formats. Rapid access to experiment-based information about well-characterized proteins helps predict the function of uncharacterized proteins identified by large-scale sequencing. In this context, universal knowledgebases play essential roles in providing access to data from complementary types of experiments and serving as hubs with cross-references to many specialized databases. This review outlines how the value of experimental data is optimized by combining high-quality protein sequences with complementary experimental results, including information derived from protein 3D-structures, using as an example the UniProt knowledgebase (UniProtKB) and the tools and links provided on its website (). It also evokes precautions that are necessary for successful predictions and extrapolations.  相似文献   

19.
Longevity risk has become one of the major risks facing the insurance and pensions markets globally. The trade in longevity risk is underpinned by accurate forecasting of mortality rates. Using techniques from macroeconomic forecasting we propose a dynamic factor model of mortality that fits and forecasts age‐specific mortality rates parsimoniously. We compare the forecasting quality of this model against the Lee–Carter model and its variants. Our results show the dynamic factor model generally provides superior forecasts when applied to international mortality data. We also show that existing multifactorial models have superior fit but their forecasting performance worsens as more factors are added. The dynamic factor approach used here can potentially be further improved upon by applying an appropriate stopping rule for the number of static and dynamic factors. Copyright © 2013 John Wiley & Sons, Ltd.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号