PyTorchを使用してGPUを利用した高速計算をする方法は何ですか?

PyTorchを使用してGPUを活用した計算を高速化するには、次の手順を実行してください:

  1. GPUデバイスが利用可能かどうかを確認してください。
import torch

if torch.cuda.is_available():
    print("GPU is available!")
else:
    print("GPU is not available.")
  1. GPUデバイスにTensorオブジェクトを移動する。
# 创建一个Tensor对象
x = torch.randn(3, 3)

# 将Tensor对象移动到GPU设备上
x = x.to('cuda')
  1. モデルの定義時にGPUデバイスを使用するよう指定します。
import torch.nn as nn

# 定义一个简单的神经网络模型
class SimpleNN(nn.Module):
    def __init__(self):
        super(SimpleNN, self).__init__()
        self.fc1 = nn.Linear(10, 5)
        self.fc2 = nn.Linear(5, 2)
        
    def forward(self, x):
        x = self.fc1(x)
        x = self.fc2(x)
        return x

# 创建模型实例并将其移动到GPU设备上
model = SimpleNN()
model = model.to('cuda')
  1. 訓練中にGPUデバイスを使用します。
# 将输入数据和标签移动到GPU设备上
inputs = inputs.to('cuda')
labels = labels.to('cuda')

# 使用GPU设备进行前向传播和反向传播
outputs = model(inputs)
loss = criterion(outputs, labels)
loss.backward()
optimizer.step()

PyTorchを使用する際に、GPUを活用して計算を高速化し、モデルのトレーニング速度と効率を向上させることができます。

bannerAds