1.特征值分解:將矩陣A分解為三個矩陣的乘積,即a = q λ q t,其中q為正交矩陣,λ為對角矩陣,其對角元素為A的特征值。
2.奇異值分解(SingularValueDecomposition):矩陣A分解為兩個正交矩陣U和V的乘積,以及壹個對角矩陣σ,即A = U σ V T,奇異值σi表示Rn空間中A的第I列向量的“長度”。
3.SpectralDecomposition:類似於特征值分解,但對角矩陣元素是矩陣的特征函數。
4.主成分分析(PCA):通過線性變換將原始數據轉換成壹組新的正交基,使數據在這些基上的投影具有最大方差。
5.非負矩陣分解(NMF):將壹個非負矩陣分解成兩個非負矩陣的乘積,常用於文本挖掘、圖像處理等領域。
6.TensorDecomposition:將壹個高維張量分解成多個低維張量的乘積,如CP分解和TUCKER分解。
7.稀疏分解:將矩陣分解成稀疏形式,以降低計算復雜度和存儲需求。
8.隨機化分解:矩陣分解是通過使用隨機算法來執行的,例如隨機梯度下降(SGD)。
9.叠代分解(IterativeDecomposition):通過多次叠代更新矩陣的分解結果,比如交替最小二乘法(ALS)。