作者softwind (家家有本难念的经)
看板ck47th320
标题Re: 大家有听过"chernoff distance"吗?
时间Tue Apr 24 10:27:00 2001
※ 引述《softwind (家家有本难念的经)》之铭言:
: ※ 引述《[email protected] (愚公)》之铭言:
: : 我本来是说将\Sigma_1=V\LambdaV^T, where V is the orthonormal basis of
: : the eigenvectors of \Sigma_1
: : So first, decompose \Sigma_1 as \sqrt{\Sigma_1}*\sqrt{\Sigma_1}, then choose
: : x'=\sqrt{\Sigma_1}*x
: : and then the original distribution becomes
: : N_1\sim N(0, I)
: : N_2\sim N(0, \Sigma_2')
: : where \Sigma_2'=\sqrt{\Sigma_1}*\Sigma_2*\sqrt{\Sigma_1}
: : Second, find the orthonormal basis of \Sigma_2', name it as V_2,
: : then
: : x"=V_2^{-1}*x'
: : then
: : N_1\sim N(0, I)
: : N_2\sim N(0, diag{\lambda_1,...,\lambda_n})
: : Then the integral must becomes an much easier form.
: : Remember to add the Jacobian matrix on the integrant during each
: : transformation. (Maybe the Jacobian matrix is unnecessary, I'm not
: : quite sure.)
事实上我的做法跟你的是一样的(把你的两个步骤合并就变成我看来的的做法了)
只是这样我只需要求一次eigenvector matrix
就可以求出要同时对角化两个矩阵的transform matrix了
只是因为有作whitening transform
所以这个transfrom matrix 不会是 orthogonal
因为symmetric matrix 相乘不一定是symmetric
-1 -1 -1 -1
而且我的做法可以一次同时对角化Σ=cΣ1+(1-c)Σ2,Σ1 and Σ2
(参考书目: "Introduction to statistical pattern recognition",second edition
Keinosuke Fukunnaga)
我看过将两矩阵同时对角化讲的最清楚的一本书(Chapter 2)
但是即使如此 还是积不出来
总觉得会要用到一些不直接的matrix恒等式的样子
非常感谢你的idea
暂时可能就不想了
只是一题可做可不做的作业
--
※ 发信站: 批踢踢实业坊(ptt.csie.ntu.edu.tw)
◆ From: pc5.ee.ntu.edu.tw