作者softwind (家家有本難唸的經)
看板ck47th320
標題Re: 大家有聽過"chernoff distance"嗎?
時間Sun Apr 22 10:24:40 2001
※ 引述《[email protected] (愚公)》之銘言:
: ※ 引述《[email protected] (家家有本難唸的經)》之銘言:
: : 他的定義是:
: : 兩個normal distribution的pdf,p1(x),p2(x)
: : (n-dimension with mean vector u1,u2, arbitrary covarience matrix Σ1,Σ2)
: : ∫p1(x)^c*p2(x)^(1-c)dx=exp(-b(x)) (0<c<1)
: : (transpose) (matrix inverse)
: : t -1
: : 其中b(x)=c(1-c)*(u2-u1)*[cΣ1+(1-c)Σ2]*(u2-u1)/2
: : +(1/2)*ln(| cΣ1+(1-c)Σ2|/(|Σ1|^c*|Σ2|^(1-c)))
: : 就是chernoff distance
: : 有人知道要怎麼證明這個式子嗎?
: : (因為covarience matrix可以是任意的matrix
: : 而非對角化矩陣所以很難積分)
: 本來不會積的!不過笨漢的解說好像反而給了一條好路!
: 先將\Sigma_1化為Identity matrix. 再對新的\Sigma_2'做旋轉!
: 這樣子就能將兩個矩陣都對角化!
: 做旋轉時積分值應該不會變!僅需考慮第一步時的Jacobian matrix就行了吧!
我也有這樣想過
-1 -1 -1 -1
令Σ=cΣ1+(1-c)Σ2 求Σ*Σ1 的eigenvector matrix 就可以完成對角化
-1 -1
可是這個eigenvector matrix要如何用Σ1,Σ2(or Σ1,Σ2) and c,(1-c)
表示就很頭痛了(還是要假設一些參數 如個別的eigenvector and eigenvalue最後再消去)
-1 -1
另一方面 一開始給的是cΣ1+(1-c)Σ2 但結果裡都是cΣ1+(1-c)Σ2
不知道是如何轉換的
: 不過有一個問題是 I cannot distinguish between scalar product and the
: inner product. So I have no idea that what your b(x) really is. Ah!
: I just got what you mean. All products are the matrix productx, Am I correct?
-------Yes!
: 看著答案看原題,有一點像。The logarithm part just comes from the Jacobian
: matrix. You can see whether this approach works.
: 不過笨漢不愧是笨漢!竟然打得出來,太可怕了!
--
※ 發信站: 批踢踢實業坊(ptt.csie.ntu.edu.tw)
◆ From: pc5.ee.ntu.edu.tw