【GPU调用及CUDA安装 看完全会!】使用gpu进行各类训练/运行代码

发布时间:2024年01月19日

检查

是否有GPU
打开任务管理器,我这边显示有gpu
在这里插入图片描述
查看有没有安装cuda

nvidia-smi

在这里插入图片描述
我没有CUDA

安装CUDA

https://developer.nvidia.com/cuda-toolkit-archive
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述

选择自定义安装
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

不要勾选Visual Studio在这里插入图片描述

记录下面安装目录,如果后续环境变量没有自动添加,则需要手动添加下面路径到环境变量中。
在这里插入图片描述
安装完毕
在这里插入图片描述

检查是否安装成功
我失败了
在这里插入图片描述

查看环境变量是否添加进去,右键我的电脑->属性->高级系统设置-高级
在这里插入图片描述果然没有,那就手动添加
C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v12.3

可以看到,已经添加成功

安装NVIDIA 驱动程序

程序添加CUDA

简洁版

import torch
print(torch.cuda.is_available())
device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
print("Selected device:", device)

详细版

我正在使用 text2vec 模型,并且该模型支持 GPU 加速,
通过以下步骤选择使用 GPU:

  1. 检查 GPU 是否可用:
    在开始使用 text2vec 模型之前,你可以通过以下代码检查是否有可用的 GPU:

    import torch
    
    if torch.cuda.is_available():
        print("GPU is available.")
    else:
        print("GPU is not available.")
    

    如果输出显示 GPU 可用,说明你的机器支持 GPU 加速。

  2. 选择 GPU 设备:
    如果 GPU 可用,你可以选择使用 GPU 设备。在 text2vec 中,可能需要查看模型的文档或源代码,以确定如何将模型移至 GPU。通常,可以使用 PyTorch 或 TensorFlow 提供的方法将模型移至 GPU。

    import torch
    
    device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
    print("Selected device:", device)
    
    # 将模型移至 GPU
    model.to(device)
    
  3. 进行文本向量化:
    使用 text2vec 进行文本向量化时,确保你的文本向量化过程也在相同的设备上进行。这通常是由 PyTorch 或 TensorFlow 提供的方法来实现的。

    import torch
    
    # 假设 text2vec_model 是你的 text2vec 模型
    text2vec_model.to(device)
    
    # 确保文本向量化也在相同的设备上进行
    text_vector = text2vec_model.encode("Your text input", device=device)
    

请记住,确保 text2vec 模型库的版本是支持 GPU 加速的版本,且查阅文档以获取准确的信息。

文章来源:https://blog.csdn.net/weixin_45312236/article/details/135703081
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。