作者softwind (家家有本难念的经)
看板ck47th320
标题Re: 大家有听过"chernoff distance"吗?
时间Tue Apr 24 10:23:41 2001
※ 引述《[email protected] (愚公)》之铭言:
: : -1 -1 -1 -1
: : 令Σ=cΣ1+(1-c)Σ2 求Σ*Σ1 的eigenvector matrix 就可以完成对角化
: 我本来是说将\Sigma_1=V\LambdaV^T, where V is the orthonormal basis of
: the eigenvectors of \Sigma_1
: So first, decompose \Sigma_1 as \sqrt{\Sigma_1}*\sqrt{\Sigma_1}, then choose
: x'=\sqrt{\Sigma_1}*x
: and then the original distribution becomes
: N_1\sim N(0, I)
--怪怪的, 只做orthogonal transform(x'=\sqrt{\Sigma_1}*x)
而不是whitening transform(x'=\sqrt{\Lambda}*\sqrt{\Sigma_1}*x)
所以应该是只做到对角化,而不会变成identity matrix
: N_2\sim N(0, \Sigma_2')
: where \Sigma_2'=\sqrt{\Sigma_1}*\Sigma_2*\sqrt{\Sigma_1}
: Second, find the orthonormal basis of \Sigma_2', name it as V_2,
: then
: x"=V_2^{-1}*x'
: then
: N_1\sim N(0, I)
: N_2\sim N(0, diag{\lambda_1,...,\lambda_n})
: Then the integral must becomes an much easier form.
: Remember to add the Jacobian matrix on the integrant during each
: transformation. (Maybe the Jacobian matrix is unnecessary, I'm not
: quite sure.)
事实上我的做法跟你的是一样的(把你的两个步骤合并就变成我看来的的做法了)
只是这样我只需要求一次eigenvector matrix
就可以求出要同时对角化两个矩阵的transform matrix了
只是因为有作whitening transform
所以这个transfrom matrix 不会是 orthogonal
因为symmetric matrix 相乘不一定是symmetric
-1 -1 -1 -1
而且我的做法可以一次同时对角化Σ=cΣ1+(1-c)Σ2,Σ1 and Σ2
(参考书目: "Introduction to statistical pattern recognition",second edition
Keinosuke Fukunnaga)
我看过将两矩阵同时对角化讲的最清楚的一本书(Chapter 2)
但是即使如此 还是积不出来
总觉得会要用到一些不直接的matrix恒等式的样子
: : -1 -1
: : 可是这个eigenvector matrix要如何用Σ1,Σ2(or Σ1,Σ2) and c,(1-c)
: : 表示就很头痛了(还是要假设一些参数 如个别的eigenvector and eigenvalue最後再消去)
: : -1 -1
: : 另一方面 一开始给的是cΣ1+(1-c)Σ2 但结果里都是cΣ1+(1-c)Σ2
: : 不知道是如何转换的
: : -------Yes!
非常感谢你的idea
暂时可能就不想了
只是一题可做可不做的作业
--
※ 发信站: 批踢踢实业坊(ptt.csie.ntu.edu.tw)
◆ From: pc5.ee.ntu.edu.tw