作者softwind (家家有本難唸的經)
看板ck47th320
標題Re: 大家有聽過"chernoff distance"嗎?
時間Tue Apr 24 10:23:41 2001
※ 引述《[email protected] (愚公)》之銘言:
: : -1 -1 -1 -1
: : 令Σ=cΣ1+(1-c)Σ2 求Σ*Σ1 的eigenvector matrix 就可以完成對角化
: 我本來是說將\Sigma_1=V\LambdaV^T, where V is the orthonormal basis of
: the eigenvectors of \Sigma_1
: So first, decompose \Sigma_1 as \sqrt{\Sigma_1}*\sqrt{\Sigma_1}, then choose
: x'=\sqrt{\Sigma_1}*x
: and then the original distribution becomes
: N_1\sim N(0, I)
--怪怪的, 只做orthogonal transform(x'=\sqrt{\Sigma_1}*x)
而不是whitening transform(x'=\sqrt{\Lambda}*\sqrt{\Sigma_1}*x)
所以應該是只做到對角化,而不會變成identity matrix
: N_2\sim N(0, \Sigma_2')
: where \Sigma_2'=\sqrt{\Sigma_1}*\Sigma_2*\sqrt{\Sigma_1}
: Second, find the orthonormal basis of \Sigma_2', name it as V_2,
: then
: x"=V_2^{-1}*x'
: then
: N_1\sim N(0, I)
: N_2\sim N(0, diag{\lambda_1,...,\lambda_n})
: Then the integral must becomes an much easier form.
: Remember to add the Jacobian matrix on the integrant during each
: transformation. (Maybe the Jacobian matrix is unnecessary, I'm not
: quite sure.)
事實上我的做法跟你的是一樣的(把你的兩個步驟合併就變成我看來的的做法了)
只是這樣我只需要求一次eigenvector matrix
就可以求出要同時對角化兩個矩陣的transform matrix了
只是因為有作whitening transform
所以這個transfrom matrix 不會是 orthogonal
因為symmetric matrix 相乘不一定是symmetric
-1 -1 -1 -1
而且我的做法可以一次同時對角化Σ=cΣ1+(1-c)Σ2,Σ1 and Σ2
(參考書目: "Introduction to statistical pattern recognition",second edition
Keinosuke Fukunnaga)
我看過將兩矩陣同時對角化講的最清楚的一本書(Chapter 2)
但是即使如此 還是積不出來
總覺得會要用到一些不直接的matrix恆等式的樣子
: : -1 -1
: : 可是這個eigenvector matrix要如何用Σ1,Σ2(or Σ1,Σ2) and c,(1-c)
: : 表示就很頭痛了(還是要假設一些參數 如個別的eigenvector and eigenvalue最後再消去)
: : -1 -1
: : 另一方面 一開始給的是cΣ1+(1-c)Σ2 但結果裡都是cΣ1+(1-c)Σ2
: : 不知道是如何轉換的
: : -------Yes!
非常感謝你的idea
暫時可能就不想了
只是一題可做可不做的作業
--
※ 發信站: 批踢踢實業坊(ptt.csie.ntu.edu.tw)
◆ From: pc5.ee.ntu.edu.tw