LARK : Locally Adaptive Regression Kernels
回顾之前的算法:
1.BL
Sensitive to
- noise
- variation in illumination
2.NLM
Smoothing effect, more robust,
but still quite sensitive
More effective ways to combine the two Δs
- LARK Kernel
- Beltrami Kernel
1.离散到非参数内核回归
Z 也有一种离散的意思。
可以看出y是离散的,现在还不确定Z的具体形式。
2.Locality in Kernel Regression
还是这个模型:
泰勒级数展开:
现在需要估计第一个βo.
3.Optimization Problem
对每一个y进行展开:
优化目标:使得误差最小.
采样后的结果:
4.Locally Linear/Nonlinear Estimators
By choosing a data‐adaptive kernel(BL,NLM,LARK), the filters become nonlinear.
总之:之前只与x有关,现在多了Y
铺垫了这么久......
LARK Kernels
Locally Adaptive Regression Kernel: LARK
公式与图对照看就可以理解了,Cl是通过离散的Xk求得。
梯度协方差矩阵和局部几何
实验结果比较:
Robustness of LARK Descriptors
对于以上三种失真结果都没有多大变化。