aihot  2017-04-26 11:51:54  OpenCV |   查看评论   

         hsc(x-z)是一个关于目标x和局部上下文位置z的相对距离和方向的函数,它编码了目标和它的空间上下文的空间关系。需要注意的是,这个函数并不是径向对称的。这有助于分辨二义性。例如图三,左眼和右眼相对于位置x*来说他们的距离是一样的,但相对位置也就是方向是不一样的。所以他们会有不一样的空间关系。这样就对防止误跟踪有帮助。
 
时空上下文视觉跟踪(STC)算法的解读与代码复现

 

         另外,这个模型是通过在线学习得到的。随着跟踪的进行不断更新。

 

(2)Context Prior Model 上下文先验模型

         这是先验概率,建模为:

时空上下文视觉跟踪(STC)算法的解读与代码复现


         其中I(z)是点z的灰度,描述的是这个上下文z的外观。w是一个加权函数,z离x越近,权值越大。定义如下:

时空上下文视觉跟踪(STC)算法的解读与代码复现

 

         这个加权函数是由生物视觉系统的focus of attention 启发得到的,它表示人看东西的时候,会聚焦在一个确定的图像区域。通俗的来说,就是离我们的目标越近的点,会越受关注,越远就不好意思了,你的光芒会被无情的忽略掉。那多远的距离会被多大程度的忽略呢?这就得看参数sigma(相当于高斯权重函数的方差)了,这个值越大,越多的风景映入眼帘,祖国大好河山,尽收眼底。如果这个值越小,那就相当于坐井观天了。

 

(3)Confidence Map 置信图

         定义为:

时空上下文视觉跟踪(STC)算法的解读与代码复现

 

         这个公式的参数β是很重要的,太大太小效果可能差之千里。具体分析见原论文。这个置信图是在给定目标的位置x*的基础上,我们通过这个公式来计算得到上下文区域任何一点x的似然得到的。

 

(4)时空模型的快速学习

         我们需要基于上下文先验模型和置信图来学习这个时空模型:

时空上下文视觉跟踪(STC)算法的解读与代码复现


         里面的卷积可以通过FFT来加速(时域的卷积相当于频域的乘积),具体如下:

时空上下文视觉跟踪(STC)算法的解读与代码复现


         这样,我们就可以通过两个FFT和一个IFFT来学习我们要的空间上下文模型了:

时空上下文视觉跟踪(STC)算法的解读与代码复现


         然后我们用这个模型去更新时空上下文模型:

时空上下文视觉跟踪(STC)算法的解读与代码复现

 

(4)最后的跟踪

         得到时空上下文模型后,我们就可以在新的一帧计算目标的置信图了:

时空上下文视觉跟踪(STC)算法的解读与代码复现

 

         同样是通过FFT来加速。然后置信图中值最大的位置,就是我们的目标位置了。

 

(5)多尺度的实现

         多尺度可以通过调整方差sigma来实现。具体分析见原论文。(感觉这个是很remarkable的一点)。尺度和方差sigma的更新如下:

 

除特别注明外,本站所有文章均为 赢咖4注册 原创,转载请注明出处来自时空上下文视觉跟踪(STC)算法的解读与代码复现

留言与评论(共有 0 条评论)
   
验证码:
[lianlun]1[/lianlun]