作者j0958322080 (Tidus)
看板Math
标题Re: [线代] QR分解的意义
时间Sat Apr 10 11:24:10 2021
最近又重新在研究解最小平方法的数值方法,
在数学上解最小平方法做回归分析是解反矩阵,
但是反矩阵在数值计算上误差会从算 (A^T)A 开始累积,
然後虽然用 Scaled-pivot 的 LU 分解可以得到不错的数值稳定性,
但是 LU 分解没有办法避免病态条件(ill-conditioned),
QR 分解可以解决这个问题,因 QR 分解是直接分解 A = QR。
而 QR 分解有三种算法:
1. (modified) Gram-Schmit (MGS)
这个方法在有两向量是几乎平行的时候会产生较大数值误差
2. Householder
适用於 dense matrix(矩阵中有较多的非零元素)
3. Given
适用於 sparse matrix(矩阵中有较多的零元素)
後两者在数值稳定上胜过 MGS 与 LU [1]。
虽然 LU 分解这步骤的计算资源少於 QR Householder(QRH),
但是通常在做回归时所得到的 A 矩阵不是方阵,故一般来说 QRH 会是最佳的方法。
而 rank-deficient 矩阵解回归分析又是另一个算法了。
[1] Matrix Analysis & Applied Linear Algebra, P349
好啦我想问一下 QR 分解中所使用到的 WY 表示,我看了很多资料还是不知道怎麽来的。
--
!!!!!!!!!!!!!!签名档破3000000点击率啦!!!!!!!!!!!!!
Fw: [问卦] 电影:决胜21点的机率问题
https://bit.ly/2TlnFhC #1MfN3FgZ (joke)
1F:→ yeebon: chx64的1/2悖论真的很经典呢07/22 16:41
https://upload.cc/i/tiloxB.jpg https://upload.cc/i/phcMAP.jpg
chx64注册tisen这帐号是想干嘛啊?哈哈哈
--
※ 发信站: 批踢踢实业坊(ptt.cc), 来自: 39.9.175.39 (台湾)
※ 文章网址: https://webptt.com/cn.aspx?n=bbs/Math/M.1618025055.A.37E.html