16 特征值与特征向量之特征向量的定义

在上一篇中,我们讨论了特征值的定义与计算,这部分知识为我们理解特征向量奠定了基础。特征向量是线性代数中一个重要的概念,它在许多应用中都扮演着关键的角色,尤其是在人工智能、机器学习和数据分析等领域。

特征向量的定义

特征向量是一种特殊类型的向量,它在经过一个线性变换后,仅仅改变了其长度或方向,而没有改变其方向。具体来说,对于给定的方阵 $A$,如果存在一个非零向量 $\mathbf{v}$ 和一个标量 $\lambda$,使得下述等式成立:

$$
A \mathbf{v} = \lambda \mathbf{v}
$$

我们称 $\mathbf{v}$ 为矩阵 $A$ 的一个特征向量,而 $\lambda$ 则是对应的特征值。

举例说明

假设我们有一个简单的 $2\times2$ 矩阵:

$$
A = \begin{pmatrix}
2 & 1 \
1 & 2
\end{pmatrix}
$$

我们想要找出矩阵 $A$ 的特征向量。首先,我们需要找到特征值 $\lambda$,这可以通过求解以下特征方程得到:

$$
\text{det}(A - \lambda I) = 0
$$

其中 $I$ 是单位矩阵。

计算 $A - \lambda I$,我们得到:

$$
A - \lambda I = \begin{pmatrix}
2 - \lambda & 1 \
1 & 2 - \lambda
\end{pmatrix}
$$

求其行列式:

$$
\text{det}(A - \lambda I) = (2 - \lambda)(2 - \lambda) - 1 = (\lambda - 1)(\lambda - 3)
$$

从中,我们可以找到特征值 $\lambda_1 = 1$ 和 $\lambda_2 = 3$。

接下来,我们需要计算对应的特征向量。

计算特征向量

对于每个特征值,我们将其代入 $A \mathbf{v} = \lambda \mathbf{v}$ 中,求解特征向量。

特征值 $\lambda_1 = 1$:

我们有:

$$
A \mathbf{v} = 1 \mathbf{v} \implies (A - I) \mathbf{v} = 0
$$

那么:

$$
A - I = \begin{pmatrix}
1 & 1 \
1 & 1
\end{pmatrix}
$$

我们解这个方程得到一个特征向量:

$$
\begin{pmatrix}
1 \
-1
\end{pmatrix}
$$

通常我们会选择规范化的特征向量,即长度为 1 的向量。上面的特征向量可以归一化为:

$$
\mathbf{v_1} = \frac{1}{\sqrt{2}} \begin{pmatrix}
1 \
-1
\end{pmatrix}
$$

特征值 $\lambda_2 = 3$:

同样地,对特征值 $\lambda_2 = 3$ 进行计算:

$$
(A - 3I) \mathbf{v} = 0
$$

得:

$$
A - 3I = \begin{pmatrix}
-1 & 1 \
1 & -1
\end{pmatrix}
$$

解这个方程可得特征向量:

$$
\begin{pmatrix}
1 \
1
\end{pmatrix}
$$

同样地,归一化:

$$
\mathbf{v_2} = \frac{1}{\sqrt{2}} \begin{pmatrix}
1 \
1
\end{pmatrix}
$$

小结

特征向量是定义在线性变换下保持特征的向量。通过特征向量,我们可以理解线性变换的性质,以及在数据降维、图像处理、推荐系统等领域的应用。

在下一篇中,我们将讨论特征值与特征向量的关系——特征分解,这一概念与今天的主题紧密相关,希望大家保持关注!

16 特征值与特征向量之特征向量的定义

https://zglg.work/ai-linear-you-need/16/

作者

AI免费学习网(郭震)

发布于

2024-08-10

更新于

2024-08-10

许可协议

分享转发

交流

更多教程加公众号

更多教程加公众号

加入星球获取PDF

加入星球获取PDF

打卡评论