3 向量与矩阵之向量的定义与表示
在线性代数的学习中,理解向量的概念是非常重要的,因为向量不仅仅是数学的抽象,对于实际问题的解决尤为关键。上篇文章中,我们探讨了线性代数的重要性,强调了它在现代人工智能及数据科学领域的广泛应用。这篇文章将深入讲解什么是向量,向量的表示方式以及其在实际应用中的实例。
向量的定义
在数学中,向量是一种具有大小和方向的量。可以用来表示多维空间中的点、速度、力等物理量。在线性代数中,向量通常表示为一个有序的数列,可以是行向量或者列向量。
一维与多维向量
简单的来说,一维向量可以用一个数值来表示,而多维向量则使用多个数值。例如:
- 一维向量:$ \mathbf{v} = [5] $
- 二维向量:$ \mathbf{v} = [3, 4] $
- 三维向量:$ \mathbf{v} = [1, -2, 2] $
在数学上,$ \mathbf{v} \in \mathbb{R}^n $表示一个维度为$n$的向量,$\mathbb{R}^n$表示所有可能的$n$维实数向量的集合。
向量的表示
向量可以用不同的方法表示,最常见的包括:
坐标表示:在几何中,向量可以用坐标来定位,例如二维向量$ \mathbf{v} = [x, y] $,其中$x$和$y$分别是向量在$x$轴和$y$轴上的坐标。
列向量与行向量:
- 列向量的定义:一个$n \times 1$的矩阵,比如:
$$
\mathbf{v} = \begin{bmatrix}
x_1 \
x_2 \
\vdots \
x_n
\end{bmatrix}
$$ - 行向量的定义:一个$1 \times n$的矩阵,比如:
$$
\mathbf{v} = \begin{bmatrix}
x_1 & x_2 & \cdots & x_n
\end{bmatrix}
$$
- 列向量的定义:一个$n \times 1$的矩阵,比如:
这样定义的向量非常适合进行矩阵运算,前面的行向量和后面的列向量相乘时,将会产生一个标量(点积)。
向量的运算
向量之间可以进行基本的运算,如加法和数乘。
向量加法:
若有两个向量 $ \mathbf{a} = [a_1, a_2] $ 和 $ \mathbf{b} = [b_1, b_2] $,则它们的和为:
$$
\mathbf{c} = \mathbf{a} + \mathbf{b} = [a_1 + b_1, a_2 + b_2]
$$数乘:
若一个标量 $k$ 乘以向量 $ \mathbf{a} = [a_1, a_2] $,则结果为:
$$
\mathbf{b} = k \cdot \mathbf{a} = [k \cdot a_1, k \cdot a_2]
$$
实例:向量在机器学习中的应用
在机器学习中,特征向量用于表示每个数据点。比如在分类问题中,我们可以用一个向量来表示一张图片的像素值。
假设我们有一张28x28像素的黑白图片,可以用一个一维的向量来表示。如下所示(简化为6个像素):
1 | import numpy as np |
上述代码将产生一个表示图片像素值的列向量。在训练模型时,机器学习算法会根据这些向量进行计算,从而提取特征。
小结
向量是线性代数中重要的基本概念,它们被广泛应用于机器学习、计算机科学等多个领域。通过了解向量的定义与表示,我们为接下来的矩阵部分奠定了基础。下一篇主题将讨论矩阵的定义与表示,更深入地探讨线性代数的结构与应用。
3 向量与矩阵之向量的定义与表示