torch.linalg.eig¶
- torch.linalg.eig(A, *, out=None)¶
计算方阵的特征值分解(如果存在)。
设 为 或 , 一个方阵的特征值分解 (如果存在)定义为
当且仅当 是 可对角化的 时,这种分解存在。 当其所有特征值都不同时,就是这种情况。
支持输入 float、double、cfloat 和 cdouble 数据类型。 还支持矩阵的批处理,如果
A是矩阵的批处理,则输出具有相同的批处理维度。注意
实矩阵的特征值和特征向量可能是复数。
注意
当输入位于CUDA设备上时,此函数会同步该设备与CPU。
警告
此函数假设
A是 可对角化的(例如,当所有特征值都不同时)。如果它不可对角化,返回的特征值将是正确的,但 。警告
返回的特征向量被归一化,使其范数为1。 即便如此,矩阵的特征向量并不唯一,也不相对于
A连续。由于这种非唯一性,不同的硬件和软件可能会计算出不同的特征向量。这种非唯一性是由于将一个特征向量乘以 会产生另一组有效的矩阵特征向量。 因此,损失函数不应依赖于特征向量的相位,因为此量没有明确定义。 在计算此函数的梯度时会检查这一点。因此, 当输入位于CUDA设备上时,此函数的梯度计算会同步该设备与CPU。
警告
使用特征向量张量计算的梯度只有在
A具有不同特征值时才是有限的。 此外,如果任意两个特征值之间的距离接近于零, 梯度将数值不稳定,因为它依赖于特征值 通过计算 。另请参阅
torch.linalg.eigvals()仅计算特征值。 与torch.linalg.eig()不同,eigvals()的梯度总是 数值稳定的。torch.linalg.eigh()用于计算厄米矩阵和对称矩阵的特征值分解的(更快)函数。torch.linalg.svd()用于计算另一种适用于任何形状矩阵的光谱分解的函数。torch.linalg.qr()用于另一种(速度快得多)适用于任何形状矩阵的分解方法。- Parameters
A (张量) – 形状为 (*, n, n) 的张量,其中 * 表示零个或多个批量维度,由可对角化的矩阵组成。
- Keyword Arguments
out (元组, 可选) – 两个张量的输出元组。如果为None则忽略。默认值:None。
- Returns
一个命名元组 (特征值, 特征向量),对应于 和 如上所述。
特征值 和 特征向量 总是复数值的,即使
A是实数。特征向量将由 特征向量 的列给出。
示例:
>>> A = torch.randn(2, 2, dtype=torch.complex128) >>> A tensor([[ 0.9828+0.3889j, -0.4617+0.3010j], [ 0.1662-0.7435j, -0.6139+0.0562j]], dtype=torch.complex128) >>> L, V = torch.linalg.eig(A) >>> L tensor([ 1.1226+0.5738j, -0.7537-0.1286j], dtype=torch.complex128) >>> V tensor([[ 0.9218+0.0000j, 0.1882-0.2220j], [-0.0270-0.3867j, 0.9567+0.0000j]], dtype=torch.complex128) >>> torch.dist(V @ torch.diag(L) @ torch.linalg.inv(V), A) tensor(7.7119e-16, dtype=torch.float64) >>> A = torch.randn(3, 2, 2, dtype=torch.float64) >>> L, V = torch.linalg.eig(A) >>> torch.dist(V @ torch.diag_embed(L) @ torch.linalg.inv(V), A) tensor(3.2841e-16, dtype=torch.float64)