3 向量与矩阵之向量的定义与表示

在线性代数的学习中,理解向量的概念是非常重要的,因为向量不仅仅是数学的抽象,对于实际问题的解决尤为关键。上篇文章中,我们探讨了线性代数的重要性,强调了它在现代人工智能及数据科学领域的广泛应用。这篇文章将深入讲解什么是向量,向量的表示方式以及其在实际应用中的实例。

向量的定义

在数学中,向量是一种具有大小和方向的量。可以用来表示多维空间中的点、速度、力等物理量。在线性代数中,向量通常表示为一个有序的数列,可以是行向量或者列向量。

一维与多维向量

简单的来说,一维向量可以用一个数值来表示,而多维向量则使用多个数值。例如:

  • 一维向量:$ \mathbf{v} = [5] $
  • 二维向量:$ \mathbf{v} = [3, 4] $
  • 三维向量:$ \mathbf{v} = [1, -2, 2] $

在数学上,$ \mathbf{v} \in \mathbb{R}^n $表示一个维度为$n$的向量,$\mathbb{R}^n$表示所有可能的$n$维实数向量的集合。

向量的表示

向量可以用不同的方法表示,最常见的包括:

  1. 坐标表示:在几何中,向量可以用坐标来定位,例如二维向量$ \mathbf{v} = [x, y] $,其中$x$和$y$分别是向量在$x$轴和$y$轴上的坐标。

  2. 列向量与行向量

    • 列向量的定义:一个$n \times 1$的矩阵,比如:
      $$
      \mathbf{v} = \begin{bmatrix}
      x_1 \
      x_2 \
      \vdots \
      x_n
      \end{bmatrix}
      $$
    • 行向量的定义:一个$1 \times n$的矩阵,比如:
      $$
      \mathbf{v} = \begin{bmatrix}
      x_1 & x_2 & \cdots & x_n
      \end{bmatrix}
      $$

这样定义的向量非常适合进行矩阵运算,前面的行向量和后面的列向量相乘时,将会产生一个标量(点积)。

向量的运算

向量之间可以进行基本的运算,如加法和数乘。

  • 向量加法
    若有两个向量 $ \mathbf{a} = [a_1, a_2] $ 和 $ \mathbf{b} = [b_1, b_2] $,则它们的和为:
    $$
    \mathbf{c} = \mathbf{a} + \mathbf{b} = [a_1 + b_1, a_2 + b_2]
    $$

  • 数乘
    若一个标量 $k$ 乘以向量 $ \mathbf{a} = [a_1, a_2] $,则结果为:
    $$
    \mathbf{b} = k \cdot \mathbf{a} = [k \cdot a_1, k \cdot a_2]
    $$

实例:向量在机器学习中的应用

在机器学习中,特征向量用于表示每个数据点。比如在分类问题中,我们可以用一个向量来表示一张图片的像素值。

假设我们有一张28x28像素的黑白图片,可以用一个一维的向量来表示。如下所示(简化为6个像素):

1
2
3
4
5
import numpy as np

# 假设一张图片的像素值(0-255)
image_pixels = np.array([255, 0, 255, 128, 64, 32]).reshape(6, 1) # 列向量
print(image_pixels)

上述代码将产生一个表示图片像素值的列向量。在训练模型时,机器学习算法会根据这些向量进行计算,从而提取特征。

小结

向量是线性代数中重要的基本概念,它们被广泛应用于机器学习、计算机科学等多个领域。通过了解向量的定义与表示,我们为接下来的矩阵部分奠定了基础。下一篇主题将讨论矩阵的定义与表示,更深入地探讨线性代数的结构与应用。

3 向量与矩阵之向量的定义与表示

https://zglg.work/ai-linear-you-need/3/

作者

IT教程网(郭震)

发布于

2024-08-10

更新于

2024-08-10

许可协议

分享转发

交流

更多教程加公众号

更多教程加公众号

加入星球获取PDF

加入星球获取PDF

打卡评论