Jupyter AI

16 特征值与特征向量之特征向量的定义

📅发表日期: 2024-08-10

🏷️分类: AI线性代数小白

👁️阅读次数: 0

在上一篇中,我们讨论了特征值的定义与计算,这部分知识为我们理解特征向量奠定了基础。特征向量是线性代数中一个重要的概念,它在许多应用中都扮演着关键的角色,尤其是在人工智能、机器学习和数据分析等领域。

特征向量的定义

特征向量是一种特殊类型的向量,它在经过一个线性变换后,仅仅改变了其长度或方向,而没有改变其方向。具体来说,对于给定的方阵 AA,如果存在一个非零向量 v\mathbf{v} 和一个标量 λ\lambda,使得下述等式成立:

Av=λvA \mathbf{v} = \lambda \mathbf{v}

我们称 v\mathbf{v} 为矩阵 AA 的一个特征向量,而 λ\lambda 则是对应的特征值。

举例说明

假设我们有一个简单的 2×22\times2 矩阵:

A=(2112)A = \begin{pmatrix} 2 & 1 \\ 1 & 2 \end{pmatrix}

我们想要找出矩阵 AA 的特征向量。首先,我们需要找到特征值 λ\lambda,这可以通过求解以下特征方程得到:

det(AλI)=0\text{det}(A - \lambda I) = 0

其中 II 是单位矩阵。

计算 AλIA - \lambda I,我们得到:

AλI=(2λ112λ)A - \lambda I = \begin{pmatrix} 2 - \lambda & 1 \\ 1 & 2 - \lambda \end{pmatrix}

求其行列式:

det(AλI)=(2λ)(2λ)1=(λ1)(λ3)\text{det}(A - \lambda I) = (2 - \lambda)(2 - \lambda) - 1 = (\lambda - 1)(\lambda - 3)

从中,我们可以找到特征值 λ1=1\lambda_1 = 1λ2=3\lambda_2 = 3

接下来,我们需要计算对应的特征向量。

计算特征向量

对于每个特征值,我们将其代入 Av=λvA \mathbf{v} = \lambda \mathbf{v} 中,求解特征向量。

特征值 λ1=1\lambda_1 = 1

我们有:

Av=1v    (AI)v=0A \mathbf{v} = 1 \mathbf{v} \implies (A - I) \mathbf{v} = 0

那么:

AI=(1111)A - I = \begin{pmatrix} 1 & 1 \\ 1 & 1 \end{pmatrix}

我们解这个方程得到一个特征向量:

(11)\begin{pmatrix} 1 \\ -1 \end{pmatrix}

通常我们会选择规范化的特征向量,即长度为 1 的向量。上面的特征向量可以归一化为:

v1=12(11)\mathbf{v_1} = \frac{1}{\sqrt{2}} \begin{pmatrix} 1 \\ -1 \end{pmatrix}

特征值 λ2=3\lambda_2 = 3

同样地,对特征值 λ2=3\lambda_2 = 3 进行计算:

(A3I)v=0(A - 3I) \mathbf{v} = 0

得:

A3I=(1111)A - 3I = \begin{pmatrix} -1 & 1 \\ 1 & -1 \end{pmatrix}

解这个方程可得特征向量:

(11)\begin{pmatrix} 1 \\ 1 \end{pmatrix}

同样地,归一化:

v2=12(11)\mathbf{v_2} = \frac{1}{\sqrt{2}} \begin{pmatrix} 1 \\ 1 \end{pmatrix}

小结

特征向量是定义在线性变换下保持特征的向量。通过特征向量,我们可以理解线性变换的性质,以及在数据降维、图像处理、推荐系统等领域的应用。

在下一篇中,我们将讨论特征值与特征向量的关系——特征分解,这一概念与今天的主题紧密相关,希望大家保持关注!

💬 评论

暂无评论