又称为数量积、标量积(scalar product)或者内积(inner product)
它是指实数域中的两个向量运算得到一个实数值标量的二元运算。也就是对应元素的位置相乘
举例:
对于向量 a = ( x 1 , y 1 ) 和 b = ( x 2 , y 2 ) ,他们的点积就是 a ? b = x 1 x 2 + y 1 y 2 a=(x_1,y_1)和b=(x_2,y_2),他们的点积就是a·b=x_1x_2+y_1y_2 a=(x1?,y1?)和b=(x2?,y2?),他们的点积就是a?b=x1?x2?+y1?y2?
两个运算的矩阵需要满足矩阵乘法规则,即需要前一个矩阵的列和后一个矩阵的行相等
一般我们用矩阵运算
就是Numpy的ndarray和torch的tensor张量 两种矩阵形式进行运算
他们大体相同,有一些小的差异,比如numpy的dot可以实现高维度的矩阵乘法但是torch的dot不可以
下表详细比较了他们之间的差异
运算 | 形式 | 实现结果 | 返回结果 |
---|---|---|---|
dot函数 | numpy.dot(a,b) torch.dot(a,b) | numpy的dot 可以实现一维度点积及高唯度的矩阵乘法,而torch的dot只能实现一维度点积,不能实现高维度矩阵乘法(报错RuntimeError: 1D tensors expected, but got 2D and 2D tensors) | 对应位置会加起来,往往返回会是一个数字 |
multiply()函数 等价于 * | numpy.multiply(a,b) torch.multiply(a,b) a*b | 点乘(和dot不同的是乘完之后不会加起来)返回往往是一个矩阵,两个矩阵必须形状一致 | 对应位置乘完之后不会加起来,往往返回是一个矩阵 |
matmul()函数等价于@ | numpy.matmul(a,b) torch.matmul(a,b) 或者torch.mm(a,b) a@b | 矩阵乘法 | 往往返回是一个矩阵 |
具体看下面的例子
numpy和torch的dot 可以用在一维的数组相乘,此时相当于两个数组的点积。
例1
import numpy as np
a=np.array([1,2,3])
b=np.array([2,3,4])
print(np.dot(a,b))
输出
20
numpy的dot也可以用在多维数组的相乘,此时是矩阵乘法,所以需要满足矩阵乘法的运算规则,需要前一个矩阵的列和后一个矩阵的行相等
例2
import numpy as np
a=np.array([[1,2,3],
[1,2,3]])
b=np.array([[2,3],
[3,4],
[5,6]])
print(np.dot(a,b))
输出
[[23 29]
[23 29]]
但是torch的dot就会报错
例3
a=torch.tensor([[1,2,3,4],[1,2,3,4]])
b=torch.tensor([[5,6],[7,8],[5,6],[7,8]])
print(a.ndim,b.ndim)
print(torch.dot(a,b))
输出
RuntimeError: 1D tensors expected, but got 2D and 2D tensors
两个运算都是相当于点乘,可以实现一维或高维度的点积,参与运算的两个矩阵必须形状一致
(和dot不同的是乘完之后不会加起来)返回往往是一个矩阵
import numpy as np
a=np.array([[1,2,3],
[1,2,3]])
b=np.array([[2,3,4],
[3,4,5]],)
print("multiply:")
print(np.multiply(a,b))
print("*:")
print(a*b)
输出
multiply:
[[ 2 6 12]
[ 3 8 15]]
*:
[[ 2 6 12]
[ 3 8 15]]
matmul 是matrix multiply的缩写,专门用于矩阵乘法,需要满足矩阵乘法的运算规则,需要前一个矩阵的列和后一个矩阵的行相等
import numpy as np
a=np.array([[1,2,3],
[1,2,3]])
b=np.array([[2,3],
[3,4],
[5,6]])
print("matmul:")
print(np.matmul(a,b))
print("@:")
print(a@b)
输出
matmul:
[[23 29]
[23 29]]
@:
[[23 29]
[23 29]]
注意这里的行向量可以列向量,比如
a=np.array([[1,2,3],
[1,2,3]])
b=np.array([2,3,4])
我们如果把b看做1行3列的矩阵,则运算不符合运算规则,但是如果看做3行1列的矩阵,则它是正确的,即2*3 × 3 * 1=2 * 1 即最后会输出一维的向量
import numpy as np
a=np.array([[1,2,3],
[1,2,3]])
b=np.array([2,3,4])
print("matmul:")
print(np.matmul(a,b))
输出
matmul:
[20 20]
在PyTorch中,有几种执行矩阵乘法的方式,包括torch.matmul
、torch.mm
和@
运算符。这些方法之间有一些区别,让我们逐个解释它们:
torch.matmul:
torch.matmul
是PyTorch中用于执行矩阵乘法的通用函数。torch.matmul
等效于矩阵乘法。torch.matmul
会在合适的维度上进行广播,以进行张量间的乘法。import torch
A = torch.tensor([[1, 2], [3, 4]])
B = torch.tensor([[5, 6], [7, 8]])
result = torch.matmul(A, B)
torch.mm:
torch.mm
是专门用于两个二维矩阵相乘的函数,不支持广播。import torch
A = torch.tensor([[1, 2], [3, 4]])
B = torch.tensor([[5, 6], [7, 8]])
result = torch.mm(A, B)
@运算符:
@
运算符在PyTorch中被重载,用于执行矩阵乘法。torch.matmul
,它支持广播操作。import torch
A = torch.tensor([[1, 2], [3, 4]])
B = torch.tensor([[5, 6], [7, 8]])
result = A @ B
总结:
torch.matmul
或@
运算符。torch.mm
。torch.matmul
或@
运算符,因为它们更通用,而torch.mm
仅限于二维矩阵。