技术详细介绍
本发明公开一种基于分类频率敏感三维自组织映射的视差估计方法。
先由FS‑3DSOM算法对视差图的低亮度区域和高亮度区域分别进行训练,得到最佳匹配的低亮度模式库和高亮度模式库。
然后对待估计视差图的低亮度区域和高亮度区域分别进行视差模式识别,得到视差预测图,完成视差估计。
本发明所得到的视差预测图的质量更好,并且计算量小。
本发明公开一种基于分类频率敏感三维自组织映射的视差估计方法。
先由FS‑3DSOM算法对视差图的低亮度区域和高亮度区域分别进行训练,得到最佳匹配的低亮度模式库和高亮度模式库。
然后对待估计视差图的低亮度区域和高亮度区域分别进行视差模式识别,得到视差预测图,完成视差估计。
本发明所得到的视差预测图的质量更好,并且计算量小。