?與PCA方差最大化理論不同,LDA算法的思想是將數據投影到低維空間後,使同類數據盡可能緊湊,不同類數據盡可能分散。因此,LDA算法是壹種有監督的機器學習算法。同時,LDA有以下兩個假設:(1)根據樣本均值對原始數據進行分類。②不同類別的數據具有相同的協方差矩陣。當然,在實際情況中,不可能滿足上述兩個假設。然而,當數據主要通過均值進行區分時,LDA通常可以取得良好的結果。
(1)計算類內散度矩陣。
(2)計算類間散度矩陣
⑶計算矩陣
(4)將矩陣分解成特征,並計算對應於最大D個最大特征值的特征向量以形成W..
(5)計算投影數據點。
以上是使用LDA進行降維的算法流程。事實上,LDA不僅可以用於降維,還可以用於分類。LDA分類的壹個常見基本思想是假設每個類別的樣本數據符合高斯分布,這樣通過LDA進行投影後,可以通過最大似然估計計算每個投影數據的均值和方差,進而得到該類別高斯分布的概率密度函數。當壹個新的樣本到達時,我們可以對其進行投影,然後將投影的樣本特征帶入每個類別的高斯分布概率密度函數中,並計算其屬於該類別的概率。最大概率對應的類別是預測類別。LDA在分類中的應用現在似乎不那麽流行了。
sklearn.discriminant _ analysis類。線性判別分析(求解器=‘SVD‘,收縮=無,先驗=無,n _ components =無,store _協方差=假,tol=0.0001)
參數:
(1)求解器:str類型,默認值為“svd”。
Svd:利用奇異值分解解決問題,不需要計算協方差矩陣。適用於特征數量較多的情況,不能使用參數收縮。
Lsqr:最小二乘qr分解,可以與收縮結合使用。
特征值分解:特征值分解,可與收縮結合使用。
?(2)收縮率:str或float類型,默認值為無。
是否使用參數收縮。
無:不使用參數縮寫。
Auto:str,使用Ledoit-Wolf引理
浮點數:用戶定義的收縮率。
(3)組件:int類型,要保留的特征數,小於或等於n-1。
屬性:
(1)協變_:每個類的協方差矩陣,形狀=【n_features,n _ features】
(2)means _:class mean,shape =【n_features,n _ features】,n _ fears】
(3)priors _:歸壹化先驗概率。
(4)旋轉_:通過LDA分析獲得的主軸,形狀=【n _特征,n _分量】
(5)Scaling _:數組列表,每個高斯分布的方差σ。
特點:
??降維後的維度最多為-1。因此,當數據維度較高,但類別數量較少時,該算法不適用。LDA算法可用於降維和分類。但目前主要用於降維。當我們分析與圖像識別相關的數據時,LDA是壹個強大的工具。
優勢:
(1)當樣本分類信息取決於均值而不是方差時,LDA優於PCA。
(2)在降維過程中,可以使用類別的先驗知識和經驗,而像PCA這樣的無監督學習無法使用類別的先驗知識。
??缺點:
(1)LDA不適用於非高斯分布樣本的降維,PCA也存在這個問題。
(2)LDA維數最多降低到類別號K-1的維數。如果我們的維數大於k-1,就不能使用LDA。當然,LDA的壹些進化算法可以繞過這個問題。
(3)當樣本分類信息取決於方差而不是均值時,LDA在降維方面無效。
(4)LDA可能會過度擬合數據。
兩者都具有降維作用。
1.左邊是PCA,這是壹種無監督的方法,可以在數據沒有標記時使用。右邊是LDA,屬於監督學習方法。考慮到數據的分類信息,可以在低維空間對數據進行分類,減少了大量計算。
2.PCA主要從特征的協方差考慮,追求的是最大化降維後數據的內部信息。它不考慮分類信息,因此在降維後,信息損失最小化,但分類可能會變得更困難。LDA追求降維後的數據點盡可能容易區分。降維後的樣本數據在新的維度空間中具有最大的類間距離和最小的類內方差,數據在低維空間中具有最好的可分性。
3.PCA降維後的維數與數據維數有關,原始數據為n維,因此PCA後的維數為1和2~n維。LDA後的維數與類別數有關。原始數據為n維,a * * * *中有C個類別,因此LDA後的維數為1和2~C-1維。
4.PCA投影的坐標系都是正交的。LDA註重分類能力,不保證投影坐標系是正交的。