torch.linalg.pinv¶
- torch.linalg.pinv(A, *, atol=None, rtol=None, hermitian=False, out=None) Tensor ¶
計算矩陣的偽逆矩陣(摩爾-彭若斯廣義逆矩陣)。
偽逆矩陣可以用代數方式定義,但透過SVD(奇異值分解)來理解它在計算上更為方便。
支援 float、double、cfloat 和 cdouble 等資料型態的輸入。也支援批次矩陣,如果
A
是一批矩陣,則輸出具有相同的批次維度。如果
hermitian
= True,則假定A
在複數情況下為 Hermitian 矩陣,或在實數情況下為對稱矩陣,但內部不會進行檢查。相反,僅使用矩陣的下三角部分進行計算。小於閾值 的奇異值(或當
hermitian
= True 時,特徵值的範數)在計算中會被視為零並捨棄,其中 是最大的奇異值(或特徵值)。如果未指定
rtol
且A
是維度為 (m, n) 的矩陣,則相對容差設定為 ,並且 是A
的資料型態的 epsilon 值(請參閱finfo
)。如果未指定rtol
並且指定atol
大於零,則rtol
設定為零。如果
atol
或rtol
是一個torch.Tensor
,則其形狀必須可廣播到torch.linalg.svd()
傳回的A
的奇異值形狀。注意
如果
hermitian
= False,此函數使用torch.linalg.svd()
;如果hermitian
= True,則使用torch.linalg.eigh()
。對於 CUDA 輸入,此函數會將該裝置與 CPU 同步。注意
如果可能,考慮使用
torch.linalg.lstsq()
將矩陣從左側乘以偽逆矩陣,因為torch.linalg.lstsq(A, B).solution == A.pinv() @ B
在可能的情況下,始終建議使用
lstsq()
,因為它比顯式計算偽逆矩陣更快且數值更穩定。注意
此函數具有與 NumPy 相容的變體 linalg.pinv(A, rcond, hermitian=False)。但是,使用位置引數
rcond
已被棄用,建議改用rtol
。警告
此函數內部使用
torch.linalg.svd()
(或當hermitian
= True 時使用torch.linalg.eigh()
),因此其導數與這些函數存在相同的問題。有關更多詳細資訊,請參閱torch.linalg.svd()
和torch.linalg.eigh()
中的警告。- 參數
- 關鍵字參數
範例
>>> A = torch.randn(3, 5) >>> A tensor([[ 0.5495, 0.0979, -1.4092, -0.1128, 0.4132], [-1.1143, -0.3662, 0.3042, 1.6374, -0.9294], [-0.3269, -0.5745, -0.0382, -0.5922, -0.6759]]) >>> torch.linalg.pinv(A) tensor([[ 0.0600, -0.1933, -0.2090], [-0.0903, -0.0817, -0.4752], [-0.7124, -0.1631, -0.2272], [ 0.1356, 0.3933, -0.5023], [-0.0308, -0.1725, -0.5216]]) >>> A = torch.randn(2, 6, 3) >>> Apinv = torch.linalg.pinv(A) >>> torch.dist(Apinv @ A, torch.eye(3)) tensor(8.5633e-07) >>> A = torch.randn(3, 3, dtype=torch.complex64) >>> A = A + A.T.conj() # creates a Hermitian matrix >>> Apinv = torch.linalg.pinv(A, hermitian=True) >>> torch.dist(Apinv @ A, torch.eye(3)) tensor(1.0830e-06)