seed() 函数用于设置随机数生成器的种子,它在生成随机数时提供了可重复性。这个种子是生成随机数的起始点,相同种子生成的随机数序列是确定性的,也就是说,在相同的种子下,每次生成的随机数序列都是一样的。
在很多编程语言和库中,seed() 函数被用于初始化伪随机数生成器。在 Python 中,它常常与 random 模块、numpy 库或者机器学习库(比如 PyTorch、TensorFlow)中的随机数生成相关的函数一起使用。
这是 Python 标准库中 random 模块的函数。random 模块提供了伪随机数生成器,通过设置种子,你可以控制生成的随机数序列。在这里,random.seed(seed) 将 Python 内置的随机数生成器的种子设置为提供的 seed 值,以确保每次程序运行时都产生相同的随机数序列。这对于调试和可重复的实验是很有用的。
代码实现:
import random
seed_value = 42 #可以随机设置
random.seed(seed_value)
for i in range(5):
random_number = random.random()
print('random_number_{}:{}'.format(i, random_number))
输出结果:
当我修改循环次数为3时,会发现输出结果和循环5次生成的前三次结果相同。
这是 NumPy 库中随机数生成器的设置方法。NumPy 提供了丰富的科学计算功能,其中包括了伪随机数生成器。通过设置 np.random.seed(seed),你确保了在使用 NumPy 的随机函数时生成的随机数序列是可重复的。这对于涉及到数组和矩阵运算的科学计算任务非常重要。
代码实现:
import numpy as np
seed_value = 42 # 可以随机设置
np.random.seed(seed_value)
for i in range(5): #第二次修改成6
numpy_number = np.random.rand(3) # 生成数组
print('numpy_number_{}:{}'.format(i, numpy_number))
循环5次和循环6次输出结果如下,通过输出结果可以看出,两次输出的前5个数组内容相等。
这是 PyTorch 深度学习框架中的函数,用于设置随机数生成器的种子。深度学习中涉及到许多随机性操作,例如参数初始化和数据划分。通过设置 PyTorch 的种子,你可以确保这些操作在不同运行中产生相同的结果,有助于实验的可重复性和可控性。这个函数是用于CPU上的
代码实现:
import torch
# 设置CPU上的随机数生成器种子
seed_value = 42
torch.manual_seed(seed_value)
# 生成随机张量
random_tensor_cpu = torch.rand(3)
print("Random Tensor (CPU):", random_tensor_cpu)
输出结果:
在这个例子中,我们使用torch.rand(3)生成一个包含三个随机数的张量,并在之前设置了CPU上的随机数生成器种子。如果你多次运行这段代码,你会发现生成的随机张量在每次运行时都是相同的,这证明了torch.manual_seed(seed)在CPU上的作用。
值得注意的是,当你使用GPU时,如果没有设置GPU上的随机数生成器的种子,即使在CPU上设置了种子,GPU上生成的随机数仍然可能是不同的。因此,如果你在实验中使用了GPU,最好也设置一下GPU上的随机数生成器种子,使用 torch.cuda.manual_seed(seed)。
类似于上述的 torch.manual_seed(seed),但专门用于 CUDA(GPU 加速)环境中。当深度学习任务在 GPU 上执行时,设置 CUDA 的种子可以确保在 GPU 上的随机数生成也是可重复的。
代码实现:
import torch
seed_value = 42
torch.manual_seed(seed_value) # 放到cpu中
torch.cuda.manual_seed(seed_value) # 放到GPU中
if torch.cuda.is_available():
# 在GPU上生成随机张量
for i in range(3):
random_tensor_gpu = torch.rand(3).cuda()
print("Random Tensor (GPU):", random_tensor_gpu)
else:
print("CUDA is not available.")
循环3次和循环5次的输出结果如下:
多次运行代码并且每次都得到相同的随机张量,那么你就可以确定torch.cuda.manual_seed(seed)成功设置了GPU上的随机数生成器的种子。这样可以确保在使用GPU进行计算时,实验结果的随机性是可控的,可以得到可重复的结果。
但是需要注意,经过测试,设置GPU种子的时候没有使用torch.manual_seed(seed_value),那么生成的随机数组每次都不一样,所以想要设置GPU上生成随机数每次一样,必须将随机种子同时放到CPU和GPU上。