作者softwind (家家有本難唸的經)
看板ck47th320
標題Re: 大家有聽過"chernoff distance"嗎?
時間Tue Apr 24 10:27:00 2001
※ 引述《softwind (家家有本難唸的經)》之銘言:
: ※ 引述《[email protected] (愚公)》之銘言:
: : 我本來是說將\Sigma_1=V\LambdaV^T, where V is the orthonormal basis of
: : the eigenvectors of \Sigma_1
: : So first, decompose \Sigma_1 as \sqrt{\Sigma_1}*\sqrt{\Sigma_1}, then choose
: : x'=\sqrt{\Sigma_1}*x
: : and then the original distribution becomes
: : N_1\sim N(0, I)
: : N_2\sim N(0, \Sigma_2')
: : where \Sigma_2'=\sqrt{\Sigma_1}*\Sigma_2*\sqrt{\Sigma_1}
: : Second, find the orthonormal basis of \Sigma_2', name it as V_2,
: : then
: : x"=V_2^{-1}*x'
: : then
: : N_1\sim N(0, I)
: : N_2\sim N(0, diag{\lambda_1,...,\lambda_n})
: : Then the integral must becomes an much easier form.
: : Remember to add the Jacobian matrix on the integrant during each
: : transformation. (Maybe the Jacobian matrix is unnecessary, I'm not
: : quite sure.)
事實上我的做法跟你的是一樣的(把你的兩個步驟合併就變成我看來的的做法了)
只是這樣我只需要求一次eigenvector matrix
就可以求出要同時對角化兩個矩陣的transform matrix了
只是因為有作whitening transform
所以這個transfrom matrix 不會是 orthogonal
因為symmetric matrix 相乘不一定是symmetric
-1 -1 -1 -1
而且我的做法可以一次同時對角化Σ=cΣ1+(1-c)Σ2,Σ1 and Σ2
(參考書目: "Introduction to statistical pattern recognition",second edition
Keinosuke Fukunnaga)
我看過將兩矩陣同時對角化講的最清楚的一本書(Chapter 2)
但是即使如此 還是積不出來
總覺得會要用到一些不直接的matrix恆等式的樣子
非常感謝你的idea
暫時可能就不想了
只是一題可做可不做的作業
--
※ 發信站: 批踢踢實業坊(ptt.csie.ntu.edu.tw)
◆ From: pc5.ee.ntu.edu.tw