16 特征值与特征向量之特征向量的定义
在上一篇中,我们讨论了特征值的定义与计算,这部分知识为我们理解特征向量奠定了基础。特征向量是线性代数中一个重要的概念,它在许多应用中都扮演着关键的角色,尤其是在人工智能、机器学习和数据分析等领域。
特征向量的定义
特征向量是一种特殊类型的向量,它在经过一个线性变换后,仅仅改变了其长度或方向,而没有改变其方向。具体来说,对于给定的方阵 $A$,如果存在一个非零向量 $\mathbf{v}$ 和一个标量 $\lambda$,使得下述等式成立:
$$
A \mathbf{v} = \lambda \mathbf{v}
$$
我们称 $\mathbf{v}$ 为矩阵 $A$ 的一个特征向量,而 $\lambda$ 则是对应的特征值。
举例说明
假设我们有一个简单的 $2\times2$ 矩阵:
$$
A = \begin{pmatrix}
2 & 1 \
1 & 2
\end{pmatrix}
$$
我们想要找出矩阵 $A$ 的特征向量。首先,我们需要找到特征值 $\lambda$,这可以通过求解以下特征方程得到:
$$
\text{det}(A - \lambda I) = 0
$$
其中 $I$ 是单位矩阵。
计算 $A - \lambda I$,我们得到:
$$
A - \lambda I = \begin{pmatrix}
2 - \lambda & 1 \
1 & 2 - \lambda
\end{pmatrix}
$$
求其行列式:
$$
\text{det}(A - \lambda I) = (2 - \lambda)(2 - \lambda) - 1 = (\lambda - 1)(\lambda - 3)
$$
从中,我们可以找到特征值 $\lambda_1 = 1$ 和 $\lambda_2 = 3$。
接下来,我们需要计算对应的特征向量。
计算特征向量
对于每个特征值,我们将其代入 $A \mathbf{v} = \lambda \mathbf{v}$ 中,求解特征向量。
特征值 $\lambda_1 = 1$:
我们有:
$$
A \mathbf{v} = 1 \mathbf{v} \implies (A - I) \mathbf{v} = 0
$$
那么:
$$
A - I = \begin{pmatrix}
1 & 1 \
1 & 1
\end{pmatrix}
$$
我们解这个方程得到一个特征向量:
$$
\begin{pmatrix}
1 \
-1
\end{pmatrix}
$$
通常我们会选择规范化的特征向量,即长度为 1 的向量。上面的特征向量可以归一化为:
$$
\mathbf{v_1} = \frac{1}{\sqrt{2}} \begin{pmatrix}
1 \
-1
\end{pmatrix}
$$
特征值 $\lambda_2 = 3$:
同样地,对特征值 $\lambda_2 = 3$ 进行计算:
$$
(A - 3I) \mathbf{v} = 0
$$
得:
$$
A - 3I = \begin{pmatrix}
-1 & 1 \
1 & -1
\end{pmatrix}
$$
解这个方程可得特征向量:
$$
\begin{pmatrix}
1 \
1
\end{pmatrix}
$$
同样地,归一化:
$$
\mathbf{v_2} = \frac{1}{\sqrt{2}} \begin{pmatrix}
1 \
1
\end{pmatrix}
$$
小结
特征向量是定义在线性变换下保持特征的向量。通过特征向量,我们可以理解线性变换的性质,以及在数据降维、图像处理、推荐系统等领域的应用。
在下一篇中,我们将讨论特征值与特征向量的关系——特征分解,这一概念与今天的主题紧密相关,希望大家保持关注!
16 特征值与特征向量之特征向量的定义