PyTorchでGPUを使用して計算を高速化する方法は何ですか?

PyTorchでGPUを使用して計算を高速化するのは非常に簡単で、次の手順に従うだけです。

  1. GPUが利用可能かどうかを確認してください。

まず、利用可能なGPUデバイスがあるかどうかを確認します。次のコードを使用して利用可能なGPUデバイスのリストを取得できます:

import torch

if torch.cuda.is_available():
    device = torch.device('cuda')
    print('GPU is available')
else:
    device = torch.device('cpu')
    print('No GPU available, using CPU instead')
  1. GPUにモデルとデータを移動します。

次に、モデルとデータをGPUデバイスに移動します。モデルをGPUに移動するには、以下のコードを使用できます:

model = model.to(device)

データに関しては、次のコードを使用してTensorをGPUに移動できます:

data = data.to(device)
  1. GPUで計算を行う

モデルとデータがGPUデバイスに移動したら、次の計算はすべてGPU上でアクセラレートされます。トレーニング中には、以下のコードを使用してデバイスを指定できます:

model.train()
for batch in data_loader:
    inputs, targets = batch[0].to(device), batch[1].to(device)
    optimizer.zero_grad()
    outputs = model(inputs)
    loss = loss_function(outputs, targets)
    loss.backward()
    optimizer.step()

PyTorchでGPUを使用して計算を高速化するためには、上記の手順に従う必要があります。

bannerAds