Shortcuts

torch.linalg.eigh

torch.linalg.eigh(A, UPLO='L', *, out=None)

计算复数厄米矩阵或实对称矩阵的特征值分解。

K\mathbb{K}R\mathbb{R}C\mathbb{C}, 一个复数 Hermitian 或实对称矩阵的特征值分解 AKn×nA \in \mathbb{K}^{n \times n} 定义为

A=Qdiag(Λ)QHQKn×n,ΛRnA = Q \operatorname{diag}(\Lambda) Q^{\text{H}}\mathrlap{\qquad Q \in \mathbb{K}^{n \times n}, \Lambda \in \mathbb{R}^n}

其中 QHQ^{\text{H}} 是当 QQ 为复数时的共轭转置,以及当 QQ 为实值时的转置。 QQ 在实数情况下是正交的,在复数情况下是酉的。

支持输入 float、double、cfloat 和 cdouble 数据类型。 还支持矩阵的批处理,如果 A 是矩阵的批处理,则输出具有相同的批处理维度。

A 假设为厄米特矩阵(或对称矩阵),但内部不会进行检查,而是:

  • 如果 UPLO= ‘L’(默认),则仅使用矩阵的下三角部分进行计算。

  • 如果 UPLO= ‘U’,则只使用矩阵的上三角部分。

特征值按升序返回。

注意

当输入位于CUDA设备上时,此函数会同步该设备与CPU。

注意

实对称矩阵或复Hermitian矩阵的特征值总是实数。

警告

对称矩阵的特征向量不是唯一的,它们相对于A也不是连续的。由于这种非唯一性,不同的硬件和软件可能会计算出不同的特征向量。

这种非唯一性是由于在实数情况下将特征向量乘以-1或在复数情况下乘以eiϕ,ϕRe^{i \phi}, \phi \in \mathbb{R}会产生矩阵的另一组有效特征向量。 因此,损失函数不应依赖于特征向量的相位,因为此量没有明确定义。 在计算此函数的梯度时,会检查复数输入。因此,当输入是复数且位于CUDA设备上时,此函数的梯度计算会同步该设备与CPU。

警告

使用特征向量张量计算的梯度只有在A具有不同特征值时才是有限的。 此外,如果任意两个特征值之间的距离接近于零, 梯度将数值不稳定,因为它依赖于特征值 λi\lambda_i 通过计算 1minijλiλj\frac{1}{\min_{i \neq j} \lambda_i - \lambda_j}

警告

如果用户在CUDA设备上使用12.1更新1之前的CUDA版本运行eigh,并且输入的是大型病态矩阵,可能会遇到PyTorch崩溃的情况。更多详情请参考线性代数数值稳定性。如果出现这种情况,用户可以(1)调整其矩阵输入以减少病态,或者(2)使用torch.backends.cuda.preferred_linalg_library()尝试其他支持的后端。

另请参阅

torch.linalg.eigvalsh() 仅计算厄米矩阵的特征值。 与 torch.linalg.eigh() 不同,eigvalsh() 的梯度始终在数值上是稳定的。

torch.linalg.cholesky() 用于对厄米矩阵进行不同的分解。 Cholesky分解提供的信息较少,但计算速度比特征值分解快得多。

torch.linalg.eig() 用于计算非必然是厄米特正方矩阵的特征值分解的(较慢)函数。

torch.linalg.svd() 用于计算任意形状矩阵的更一般SVD分解的(较慢)函数。

torch.linalg.qr() 用于另一种(速度快得多)适用于一般矩阵的分解方法。

Parameters
  • A (张量) – 形状为 (*, n, n) 的张量,其中 * 表示零个或多个批量维度,由对称或厄米矩阵组成。

  • UPLO ('L', 'U', 可选) – 控制是否在计算中使用上三角部分或下三角部分 的 A。默认值:‘L’

Keyword Arguments

out (元组, 可选) – 两个张量的输出元组。如果为None则忽略。默认值:None

Returns

一个命名元组 (特征值, 特征向量),对应于 Λ\LambdaQQ 如上所述。

特征值 将始终是实数值,即使 A 是复数。它也将按升序排列。

特征向量 将具有与 A 相同的 dtype,并将包含作为其列的特征向量。

Examples::
>>> A = torch.randn(2, 2, dtype=torch.complex128)
>>> A = A + A.T.conj()  # 创建一个厄米矩阵
>>> A
tensor([[2.9228+0.0000j, 0.2029-0.0862j],
        [0.2029+0.0862j, 0.3464+0.0000j]], dtype=torch.complex128)
>>> L, Q = torch.linalg.eigh(A)
>>> L
tensor([0.3277, 2.9415], dtype=torch.float64)
>>> Q
tensor([[-0.0846+-0.0000j, -0.9964+0.0000j],
        [ 0.9170+0.3898j, -0.0779-0.0331j]], dtype=torch.complex128)
>>> torch.dist(Q @ torch.diag(L.cdouble()) @ Q.T.conj(), A)
tensor(6.1062e-16, dtype=torch.float64)
>>> A = torch.randn(3, 2, 2, dtype=torch.float64)
>>> A = A + A.mT  # 创建一批对称矩阵
>>> L, Q = torch.linalg.eigh(A)
>>> torch.dist(Q @ torch.diag_embed(L) @ Q.mH, A)
tensor(1.5423e-15, dtype=torch.float64)
优云智算