版權(quán)歸原作者所有,如有侵權(quán),請聯(lián)系我們

[科普中國]-特征分解

科學(xué)百科
原創(chuàng)
科學(xué)百科為用戶提供權(quán)威科普內(nèi)容,打造知識科普陣地
收藏

特征分解(Eigendecomposition),又稱譜分解(Spectral decomposition)是將矩陣分解為由其特征值和特征向量表示的矩陣之積的方法。需要注意只有對可對角化矩陣才可以施以特征分解。

基礎(chǔ)理論N 維非零向量 v 是 N×N 的矩陣 A 的特征向量,當(dāng)且僅當(dāng)下式成立:

其中 λ 為一標(biāo)量,稱為 v 對應(yīng)的特征值。也稱 v 為特征值 λ 對應(yīng)的特征向量。也即特征向量被施以線性變換 A 只會使向量伸長或縮短而其方向不被改變。

由上式可得

稱多項式 p(λ) 為矩陣的特征多項式。上式亦稱為矩陣的特征方程。特征多項式是關(guān)于未知數(shù) λ 的 N 次多項式。由代數(shù)基本定理,特征方程有 N 個解。這些解的解集也就是特征值的集合,有時也稱為“譜”(Spectrum)。

我們可以對多項式 p 進(jìn)行因式分解,而得到

其中

對每一個特征值 λi ,我們都有下式成立:

對每一個特征方程,都會有)個線性無關(guān)的解。這 mi 個向量與一個特征值 λi 相對應(yīng)。這里,整數(shù) mi 稱為特征值 λi 的幾何重數(shù),而 ni 稱為代數(shù)重數(shù)。這里需要注意的是幾何重數(shù)與代數(shù)重數(shù)可以相等,但也可以不相等。一種最簡單的情況是 mi = ni = 1。特征向量的極大線性無關(guān)向量組中向量的個數(shù)可以由所有特征值的幾何重數(shù)之和來確定。1

分解方法矩陣的特征分解令 A 是一個 N×N 的方陣,且有 N 個線性無關(guān)的特征向量。這樣, A 可以被分解為

其中 Q 是N×N方陣,且其第 i列為 A 的特征向量 。 Λ 是對角矩陣,其對角線上的元素為對應(yīng)的特征值,也即。這里需要注意只有可對角化矩陣才可以作特征分解。比如 不能被對角化,也就不能特征分解。

一般來說,特征向量一般被正交單位化(但這不是必須的)。未被正交單位化的特征向量組也可以作為 Q 的列向量。這一事實可以這樣理解: Q 中向量的長度都被 抵消了。1

通過特征分解求矩陣的逆若矩陣 A 可被特征分解并特征值中不含零,則矩陣 A 為非奇異矩陣,且其逆矩陣可以由下式給出:

因為 Λ 為對角矩陣,其逆矩陣容易計算出1:

對特殊矩陣的特征分解對稱矩陣

任意的 N×N 實對稱矩陣都有 N 個線性無關(guān)的特征向量。并且這些特征向量都可以正交單位化而得到一組正交且模為 1 的向量。故實對稱矩陣 A 可被分解成

其中 Q 為 正交矩陣, Λ 為實對角矩陣。

正規(guī)矩陣

類似地,一個復(fù)正規(guī)矩陣具有一組正交特征向量基,故正規(guī)矩陣可以被分解成

其中 U 為一個酉矩陣。進(jìn)一步地,若 A 是埃爾米特矩陣,那么對角矩陣 Λ 的對角元全是實數(shù)。若 A 還是酉矩陣,則 Λ 的所有對角元在復(fù)平面的單位圓上取得。2

本詞條內(nèi)容貢獻(xiàn)者為:

宋春霖 - 副教授 - 江南大學(xué)

評論
科普5d5135acc689c
大學(xué)士級
特征分解又稱譜分解,是將矩陣分解為由其特征值和特征向量表示的矩陣之積的方法。
2023-04-05