PyTorchでGPUを使用して計算を高速化する方法は何ですか?
PyTorchでGPUを使用して計算を高速化するのは非常に簡単で、次の手順に従うだけです。
- GPUが利用可能かどうかを確認してください。
まず、利用可能なGPUデバイスがあるかどうかを確認します。次のコードを使用して利用可能なGPUデバイスのリストを取得できます:
import torch
if torch.cuda.is_available():
device = torch.device('cuda')
print('GPU is available')
else:
device = torch.device('cpu')
print('No GPU available, using CPU instead')
- GPUにモデルとデータを移動します。
次に、モデルとデータをGPUデバイスに移動します。モデルをGPUに移動するには、以下のコードを使用できます:
model = model.to(device)
データに関しては、次のコードを使用してTensorをGPUに移動できます:
data = data.to(device)
- GPUで計算を行う
モデルとデータがGPUデバイスに移動したら、次の計算はすべてGPU上でアクセラレートされます。トレーニング中には、以下のコードを使用してデバイスを指定できます:
model.train()
for batch in data_loader:
inputs, targets = batch[0].to(device), batch[1].to(device)
optimizer.zero_grad()
outputs = model(inputs)
loss = loss_function(outputs, targets)
loss.backward()
optimizer.step()
PyTorchでGPUを使用して計算を高速化するためには、上記の手順に従う必要があります。