Jupyter AI

3 向量与矩阵之向量的定义与表示

📅发表日期: 2024-08-10

🏷️分类: AI线性代数小白

👁️阅读次数: 0

在线性代数的学习中,理解向量的概念是非常重要的,因为向量不仅仅是数学的抽象,对于实际问题的解决尤为关键。上篇文章中,我们探讨了线性代数的重要性,强调了它在现代人工智能及数据科学领域的广泛应用。这篇文章将深入讲解什么是向量,向量的表示方式以及其在实际应用中的实例。

向量的定义

在数学中,向量是一种具有大小和方向的量。可以用来表示多维空间中的点、速度、力等物理量。在线性代数中,向量通常表示为一个有序的数列,可以是行向量或者列向量。

一维与多维向量

简单的来说,一维向量可以用一个数值来表示,而多维向量则使用多个数值。例如:

  • 一维向量:v=[5]\mathbf{v} = [5]
  • 二维向量:v=[3,4]\mathbf{v} = [3, 4]
  • 三维向量:v=[1,2,2]\mathbf{v} = [1, -2, 2]

在数学上,vRn\mathbf{v} \in \mathbb{R}^n表示一个维度为nn的向量,Rn\mathbb{R}^n表示所有可能的nn维实数向量的集合。

向量的表示

向量可以用不同的方法表示,最常见的包括:

  1. 坐标表示:在几何中,向量可以用坐标来定位,例如二维向量v=[x,y]\mathbf{v} = [x, y],其中xxyy分别是向量在xx轴和yy轴上的坐标。

  2. 列向量与行向量

    • 列向量的定义:一个n×1n \times 1的矩阵,比如:
    v=[x1x2xn]\mathbf{v} = \begin{bmatrix} x_1 \\ x_2 \\ \vdots \\ x_n \end{bmatrix}
    • 行向量的定义:一个1×n1 \times n的矩阵,比如:
    v=[x1x2xn]\mathbf{v} = \begin{bmatrix} x_1 & x_2 & \cdots & x_n \end{bmatrix}

这样定义的向量非常适合进行矩阵运算,前面的行向量和后面的列向量相乘时,将会产生一个标量(点积)。

向量的运算

向量之间可以进行基本的运算,如加法和数乘。

  • 向量加法: 若有两个向量 a=[a1,a2]\mathbf{a} = [a_1, a_2]b=[b1,b2]\mathbf{b} = [b_1, b_2],则它们的和为:

    c=a+b=[a1+b1,a2+b2]\mathbf{c} = \mathbf{a} + \mathbf{b} = [a_1 + b_1, a_2 + b_2]
  • 数乘: 若一个标量 kk 乘以向量 a=[a1,a2]\mathbf{a} = [a_1, a_2],则结果为:

    b=ka=[ka1,ka2]\mathbf{b} = k \cdot \mathbf{a} = [k \cdot a_1, k \cdot a_2]

实例:向量在机器学习中的应用

在机器学习中,特征向量用于表示每个数据点。比如在分类问题中,我们可以用一个向量来表示一张图片的像素值。

假设我们有一张28x28像素的黑白图片,可以用一个一维的向量来表示。如下所示(简化为6个像素):

import numpy as np

# 假设一张图片的像素值(0-255)
image_pixels = np.array([255, 0, 255, 128, 64, 32]).reshape(6, 1)  # 列向量
print(image_pixels)

上述代码将产生一个表示图片像素值的列向量。在训练模型时,机器学习算法会根据这些向量进行计算,从而提取特征。

小结

向量是线性代数中重要的基本概念,它们被广泛应用于机器学习、计算机科学等多个领域。通过了解向量的定义与表示,我们为接下来的矩阵部分奠定了基础。下一篇主题将讨论矩阵的定义与表示,更深入地探讨线性代数的结构与应用。

💬 评论

暂无评论