【给初学者】尝试使用Docker + VSCode + Git在Windows11上构建Pytorch的GPU环境
首先这篇文章是为Docker初学者而写的,他们希望使用GPU进行Pytorch训练。如果您熟悉Docker虚拟环境,或者您想在本地环境进行训练,或者您使用的是Mac,我们建议您参考其他文章。
作者在构建之前的执行环境如下所示。
操作系统:Windows11
编辑器:VSCode
Windows版Docker桌面版
GeForce RTX 3060 Ti
Docker是什么
Docker是一种容器化虚拟平台,它可以将应用程序及其依赖关系封装为独立的容器,并且可以在不同的环境中运行。Docker具有以下特点:
Docker容器将应用程序及其依赖关系打包为一个单一的软件包,因此可以在不同环境中保持一致的运行。从开发环境到测试环境再到生产环境,应用程序的可移植性得到提高,部署也变得更加简化。
此外,Docker 提供了轻量级的容器虚拟化,并在主机操作系统上共享容器,以实现系统资源的最佳利用。容器可以快速启动,并能有效地分配内存和CPU。
1. 准备WSL2。公式安装步骤请参照这里。
在Windows 11中,你可以使用一个命令来安装运行WSL所需的所有组件。通过右键点击并选择”以管理员身份运行”,可以在管理员模式下打开PowerShell或Windows命令提示符,输入wsl –install命令,然后重新启动计算机即可。
wsl --install
执行该操作时,同时也会安装最新版本的Ubuntu(非常方便)。
在安装了Ubuntu之后,即使试图启动它,也会出现错误。需要更改Windows的设置以适应这个。
点击「设置」
点击「应用」的「选项功能」
点击「其他 Windows 功能」
勾选「适用于 Linux 的 Windows 子系统」
这样预先准备工作就完成了。
再次从PowerShell启动Ubuntu时,系统将要求输入用户名和密码。请输入后执行以下命令。
wsl -l -v
只要能看到Ubuntu,安装就完成了(只要Ubuntu显示出来就没有问题)。
使用WSL的设置已经完成。
2. 安装VSCode您可以从这里安装VSCode。请安装Windows版。
在安装过程中,会有一个设置环境变量的复选框,请不要忘记勾选此项。其他项目可以点击”下一步”。
VSCode的安装已经完成。
3. 安装Git您可以从这里安装Git。还请您也安装Windows版。
通过这样做,您可以直接从开发环境进行版本管理,而无需打开VSCode再启动Git Bash。
这样你就完成了Git的安装。
4. 安装Docker Desktop您可以从这里安装Docker Desktop。请同样安装Windows版。
在安装Docker桌面版时,不需要特别注意任何事项。
性后,安装完成后有一点需要注意。
1. 打开Docker Desktop,点击右上角的设置(齿轮图标)。
2. 点击”资源”下的”WSL集成”。
3. 启用”Ubuntu”选项。
通过这种方式,您可以在Ubuntu上操作Docker。
通过这一步,Docker Desktop已经安装完成。
5. 安装NVIDIA驱动程序和CUDA工具包要在GPU环境中运行Pytorch,主要需要做两项准备。
①英伟达驱动程序
②CUDA工具包
英伟达驱动程序让我们从安装NVIDIA驱动程序开始。
您可以从这里安装。
由于作者在Windows11上使用GeForce RTX 3060Ti的GPU,因此以下是该设置。请根据您自己的环境进行相应输入。
下载完成后,可以直接进行安装。
安装NVIDIA驱动程序已经完成。
CUDA工具包让我们从安装CUDA工具包开始。
可以从 这份指南 中查看安装步骤。
看其他人的文章,似乎可以从Windows的终端执行,但作者选择从Ubuntu上执行。
首先,从Ubuntu执行以下命令。
sudo apt-key del 7fa2af80
看起来这是在删除旧的GPG密钥。如果不进行此操作,则在安装过程中可能会出现错误。
接下来,将在Ubuntu上安装CUDA Toolkit。
根据指南,有两种安装方法可选,但作者选择了Option1。
请注意,在Option2的情况下,将会覆盖已安装的Windows驱动程序。
选项1:
使用WSL-Ubuntu包进行Linux x86 CUDA工具包安装 – 推荐
CUDA WSL-Ubuntu本地安装程序不包含NVIDIA Linux GPU驱动程序,所以按照WSL-Ubuntu上CUDA下载页面的步骤,您将能够只安装WSL上的CUDA工具包。
选项2:
使用元包安装Linux x86 CUDA工具包
如果您使用WSL-Ubuntu软件包安装了工具包,请跳过本部分。元包不包含驱动程序,所以按照Ubuntu下载页面上的步骤,您将能够仅在WSL上安装CUDA工具包。
CUDA工具包的安装说明可以在每个安装程序的CUDA工具包下载页面找到。但是,在WSL 2下不要选择“cuda”、“cuda-12-x”或“cuda-drivers”元包,因为这些包将尝试在WSL 2下安装Linux NVIDIA驱动程序。请仅安装cuda-toolkit-12-x元包。
您还可以通过选择适当的元包安装工具包的其他组件。
在Ubuntu上安装CUDA Toolkit需要输入命令。请访问以下网站并输入运行环境(使用本文方法,与图片相同的环境没有问题),然后将显示的命令输入到Ubuntu中。
wget https://developer.download.nvidia.com/compute/cuda/repos/wsl-ubuntu/x86_64/cuda-wsl-ubuntu.pin
sudo mv cuda-wsl-ubuntu.pin /etc/apt/preferences.d/cuda-repository-pin-600
wget https://developer.download.nvidia.com/compute/cuda/12.0.0/local_installers/cuda-repo-wsl-ubuntu-12-0-local_12.0.0-1_amd64.deb
sudo dpkg -i cuda-repo-wsl-ubuntu-12-0-local_12.0.0-1_amd64.deb
sudo cp /var/cuda-repo-wsl-ubuntu-12-0-local/cuda-*-keyring.gpg /usr/share/keyrings/
sudo apt-get update
sudo apt-get -y install cuda
安装大约需要十几分钟的时间。
让我们在Ubuntu上运行以下命令。
cat /usr/local/cuda/version.json
如果您看到以下内容,则说明CUDA Toolkit已安装成功。
{
"cuda" : {
"name" : "CUDA SDK",
"version" : "12.3.0"
},
"cuda_cccl" : {
"name" : "CUDA C++ Core Compute Libraries",
"version" : "12.3.52"
},
"cuda_cudart" : {
"name" : "CUDA Runtime (cudart)",
"version" : "12.3.52"
},
"cuda_cuobjdump" : {
"name" : "cuobjdump",
"version" : "12.3.52"
},
"cuda_cupti" : {
"name" : "CUPTI",
"version" : "12.3.52"
},
"cuda_cuxxfilt" : {
"name" : "CUDA cu++ filt",
"version" : "12.3.52"
},
"cuda_demo_suite" : {
"name" : "CUDA Demo Suite",
"version" : "12.3.52"
},
"cuda_gdb" : {
"name" : "CUDA GDB",
"version" : "12.3.52"
},
"cuda_nsight" : {
"name" : "Nsight Eclipse Plugins",
"version" : "12.3.52"
},
"cuda_nvcc" : {
"name" : "CUDA NVCC",
"version" : "12.3.52"
},
"cuda_nvdisasm" : {
"name" : "CUDA nvdisasm",
"version" : "12.3.52"
},
"cuda_nvml_dev" : {
"name" : "CUDA NVML Headers",
"version" : "12.3.52"
},
"cuda_nvprof" : {
"name" : "CUDA nvprof",
"version" : "12.3.52"
},
"cuda_nvprune" : {
"name" : "CUDA nvprune",
"version" : "12.3.52"
},
"cuda_nvrtc" : {
"name" : "CUDA NVRTC",
"version" : "12.3.52"
},
"cuda_nvtx" : {
"name" : "CUDA NVTX",
"version" : "12.3.52"
},
"cuda_nvvp" : {
"name" : "CUDA NVVP",
"version" : "12.3.52"
},
"cuda_opencl" : {
"name" : "CUDA OpenCL",
"version" : "12.3.52"
},
"cuda_sanitizer_api" : {
"name" : "CUDA Compute Sanitizer API",
"version" : "12.3.52"
},
"libcublas" : {
"name" : "CUDA cuBLAS",
"version" : "12.3.2.9"
},
"libcufft" : {
"name" : "CUDA cuFFT",
"version" : "11.0.11.19"
},
"libcufile" : {
"name" : "GPUDirect Storage (cufile)",
"version" : "1.8.0.34"
},
"libcurand" : {
"name" : "CUDA cuRAND",
"version" : "10.3.4.52"
},
"libcusolver" : {
"name" : "CUDA cuSOLVER",
"version" : "11.5.3.52"
},
"libcusparse" : {
"name" : "CUDA cuSPARSE",
"version" : "12.1.3.153"
},
"libnpp" : {
"name" : "CUDA NPP",
"version" : "12.2.2.32"
},
"libnvjitlink" : {
"name" : "JIT Linker Library",
"version" : "12.3.52"
},
"libnvjpeg" : {
"name" : "CUDA nvJPEG",
"version" : "12.2.3.32"
},
"nsight_compute" : {
"name" : "Nsight Compute",
"version" : "2023.3.0.12"
},
"nsight_systems" : {
"name" : "Nsight Systems",
"version" : "2023.3.3.42"
},
"nvidia_fs" : {
"name" : "NVIDIA file-system",
"version" : "2.18.3"
}
}
6. 创建容器要使用Docker的虚拟环境,需要按照以下步骤进行。
创建Dockerfile。
使用Dockerfile创建Docker镜像。
使用Docker镜像构建Docker容器。
在这里,VScode提供了一个名为Dev Containers的扩展,可以简化以上步骤。通过在VScode上创建Dockerfile,并使用devcontainer.json,您可以在不需要使用Docker命令的情况下构建容器。
在使用VSCode进行开发时,虽然会消耗内存,也只能在VSCode中进行开发,这是一个缺点,但对于VSCode用户来说,它非常方便,值得推荐。
说明在以下网站上提供。
在Ubuntu中,您可以在想要进行任意开发的目录中执行以下命令。
code .
通过这样做,你可以在当前目录下打开VSCode。
从VSCode的扩展功能中安装Dev Containers。

重新启动VSCode后,应该会在文件夹中创建devcontainer.json文件。
首先,我们要创建 Dockerfile。由于我们希望确认 PyTorch 可以在 GPU 环境下运行,所以我们将安装最基本的包、库和框架。
这是一个已执行的Dockerfile。
requirements.txt文件位于同一目录下。
FROM nvidia/cuda:12.2.2-devel-ubuntu22.04
RUN apt update \
&& apt install -y \
git\
python3\
python3-pip
RUN apt-get autoremove -y && apt-get clean && \
rm -rf /usr/local/src/*
COPY requirements.txt /tmp/
RUN pip install --no-cache-dir -r /tmp/requirements.txt
COPY . /tmp/
torch
torchvision
transformers
需要注意的是,重点是nvidia / cuda的基础。您将会在Docker Hub上搜索图像,但如果与您自己的Ubuntu版本不兼容,那么在构建容器的过程中会出现错误。
请执行以下命令来检查Ubuntu的版本:
cat /etc/issue
Ubuntu 22.04.2 LTS \n \l #自身のバージョンを確認
请从以下链接中寻找最合适的图像。
下一步是对devcontainer.json进行配置。
以下是已执行的devcontainer.json。这是利用了devcontainer.json的初始格式。
{
"name": "Existing Dockerfile",
"build": {
"context": "..",
"dockerfile": "../dockerfile"
},
"runArgs": ["--gpus", "all","--shm-size","8gb"],
"customizations": {
"vscode": {
"extensions": [
"ms-python.python",
"ms-toolsai.jupyter",
"mhutchie.git-graph",
"MS-CEINTL.vscode-language-pack-ja"
]
}
}
}
重要的是 “runArgs” 和 “extensions”。
在”runArgs”中可以设置容器启动时的选项。这里我们进行了GPU的配置。
–gpus all: 为了能够使用所有的GPU。
–shm-size 8gb:将容器内共享内存的大小设置为8GB。
在”extensions”中,您可以设置要在容器内的VSCode中安装的扩展功能。
“ms-python.python” : Python的扩展功能
“ms-toolsai.jupyter” : Jupyter的扩展功能
“ms-toolsai.git-graph” : Git-graph的扩展功能。方便可视化版本管理。
“MS-CEINTL.vscode-language-pack-ja” : 日语本地化的扩展功能。
如果您想要安装附加的扩展功能,请在”extensions”中追加扩展功能的ID。
请点击扩展项中的齿轮图标,并点击”复制扩展ID”,以获取扩展功能的ID。
这样,准备工作已经完成了。
如果确认容器已启动,请创建.py文件,并使用pytorch来确认GPU是否可用。
一切顺利时,如果能成功返回True,那么Pytorch的GPU环境配置就完成了。
辛苦了!
余談:Git的版本控制在团队活动和项目开发中,使用远程存储库进行版本管理是必须的。
这篇文章的目的是在虚拟环境中创建了一个文件,通过Pytorch使用GPU进行训练,并将其用于管理模型并将其应用于应用程序,使其能够通过Git在VSCode中进行管理。
总结非常感谢您阅读到这里。
今次解释了针对Docker初学者的Pytorch GPU环境搭建。
我也只学习了不到一个星期的Docker,所以可能会有一些错误的理解,请您多多包涵。
如果能够建立这个虚拟环境,就不必特地准备本地环境,可以立即准备好可以进行版本管理的pytorch GPU环境。
希望这篇文章能够为大家的学习模型开发减少一点困难。
参考资料我尝试使用Windows11上的WSL2搭建Linux环境(ubuntu)
安装Visual Studio Code
在WSL2上安装CUDA

Docker容器将应用程序及其依赖关系打包为一个单一的软件包,因此可以在不同环境中保持一致的运行。从开发环境到测试环境再到生产环境,应用程序的可移植性得到提高,部署也变得更加简化。
此外,Docker 提供了轻量级的容器虚拟化,并在主机操作系统上共享容器,以实现系统资源的最佳利用。容器可以快速启动,并能有效地分配内存和CPU。
1. 准备WSL2。公式安装步骤请参照这里。
在Windows 11中,你可以使用一个命令来安装运行WSL所需的所有组件。通过右键点击并选择”以管理员身份运行”,可以在管理员模式下打开PowerShell或Windows命令提示符,输入wsl –install命令,然后重新启动计算机即可。
wsl --install
执行该操作时,同时也会安装最新版本的Ubuntu(非常方便)。
点击「设置」
点击「应用」的「选项功能」
点击「其他 Windows 功能」
勾选「适用于 Linux 的 Windows 子系统」

再次从PowerShell启动Ubuntu时,系统将要求输入用户名和密码。请输入后执行以下命令。
wsl -l -v
只要能看到Ubuntu,安装就完成了(只要Ubuntu显示出来就没有问题)。

2. 安装VSCode您可以从这里安装VSCode。请安装Windows版。
在安装过程中,会有一个设置环境变量的复选框,请不要忘记勾选此项。其他项目可以点击”下一步”。

3. 安装Git您可以从这里安装Git。还请您也安装Windows版。

这样你就完成了Git的安装。
4. 安装Docker Desktop您可以从这里安装Docker Desktop。请同样安装Windows版。
在安装Docker桌面版时,不需要特别注意任何事项。
性后,安装完成后有一点需要注意。
1. 打开Docker Desktop,点击右上角的设置(齿轮图标)。
2. 点击”资源”下的”WSL集成”。
3. 启用”Ubuntu”选项。


通过这一步,Docker Desktop已经安装完成。
5. 安装NVIDIA驱动程序和CUDA工具包要在GPU环境中运行Pytorch,主要需要做两项准备。
①英伟达驱动程序
②CUDA工具包
英伟达驱动程序让我们从安装NVIDIA驱动程序开始。
①英伟达驱动程序
②CUDA工具包
您可以从这里安装。
由于作者在Windows11上使用GeForce RTX 3060Ti的GPU,因此以下是该设置。请根据您自己的环境进行相应输入。

安装NVIDIA驱动程序已经完成。
CUDA工具包让我们从安装CUDA工具包开始。
可以从 这份指南 中查看安装步骤。
看其他人的文章,似乎可以从Windows的终端执行,但作者选择从Ubuntu上执行。
首先,从Ubuntu执行以下命令。
sudo apt-key del 7fa2af80
看起来这是在删除旧的GPG密钥。如果不进行此操作,则在安装过程中可能会出现错误。
接下来,将在Ubuntu上安装CUDA Toolkit。
根据指南,有两种安装方法可选,但作者选择了Option1。
选项1:
使用WSL-Ubuntu包进行Linux x86 CUDA工具包安装 – 推荐
CUDA WSL-Ubuntu本地安装程序不包含NVIDIA Linux GPU驱动程序,所以按照WSL-Ubuntu上CUDA下载页面的步骤,您将能够只安装WSL上的CUDA工具包。
选项2:
使用元包安装Linux x86 CUDA工具包
如果您使用WSL-Ubuntu软件包安装了工具包,请跳过本部分。元包不包含驱动程序,所以按照Ubuntu下载页面上的步骤,您将能够仅在WSL上安装CUDA工具包。
CUDA工具包的安装说明可以在每个安装程序的CUDA工具包下载页面找到。但是,在WSL 2下不要选择“cuda”、“cuda-12-x”或“cuda-drivers”元包,因为这些包将尝试在WSL 2下安装Linux NVIDIA驱动程序。请仅安装cuda-toolkit-12-x元包。
您还可以通过选择适当的元包安装工具包的其他组件。
在Ubuntu上安装CUDA Toolkit需要输入命令。请访问以下网站并输入运行环境(使用本文方法,与图片相同的环境没有问题),然后将显示的命令输入到Ubuntu中。


wget https://developer.download.nvidia.com/compute/cuda/repos/wsl-ubuntu/x86_64/cuda-wsl-ubuntu.pin
sudo mv cuda-wsl-ubuntu.pin /etc/apt/preferences.d/cuda-repository-pin-600
wget https://developer.download.nvidia.com/compute/cuda/12.0.0/local_installers/cuda-repo-wsl-ubuntu-12-0-local_12.0.0-1_amd64.deb
sudo dpkg -i cuda-repo-wsl-ubuntu-12-0-local_12.0.0-1_amd64.deb
sudo cp /var/cuda-repo-wsl-ubuntu-12-0-local/cuda-*-keyring.gpg /usr/share/keyrings/
sudo apt-get update
sudo apt-get -y install cuda
安装大约需要十几分钟的时间。
让我们在Ubuntu上运行以下命令。
cat /usr/local/cuda/version.json
如果您看到以下内容,则说明CUDA Toolkit已安装成功。
{
"cuda" : {
"name" : "CUDA SDK",
"version" : "12.3.0"
},
"cuda_cccl" : {
"name" : "CUDA C++ Core Compute Libraries",
"version" : "12.3.52"
},
"cuda_cudart" : {
"name" : "CUDA Runtime (cudart)",
"version" : "12.3.52"
},
"cuda_cuobjdump" : {
"name" : "cuobjdump",
"version" : "12.3.52"
},
"cuda_cupti" : {
"name" : "CUPTI",
"version" : "12.3.52"
},
"cuda_cuxxfilt" : {
"name" : "CUDA cu++ filt",
"version" : "12.3.52"
},
"cuda_demo_suite" : {
"name" : "CUDA Demo Suite",
"version" : "12.3.52"
},
"cuda_gdb" : {
"name" : "CUDA GDB",
"version" : "12.3.52"
},
"cuda_nsight" : {
"name" : "Nsight Eclipse Plugins",
"version" : "12.3.52"
},
"cuda_nvcc" : {
"name" : "CUDA NVCC",
"version" : "12.3.52"
},
"cuda_nvdisasm" : {
"name" : "CUDA nvdisasm",
"version" : "12.3.52"
},
"cuda_nvml_dev" : {
"name" : "CUDA NVML Headers",
"version" : "12.3.52"
},
"cuda_nvprof" : {
"name" : "CUDA nvprof",
"version" : "12.3.52"
},
"cuda_nvprune" : {
"name" : "CUDA nvprune",
"version" : "12.3.52"
},
"cuda_nvrtc" : {
"name" : "CUDA NVRTC",
"version" : "12.3.52"
},
"cuda_nvtx" : {
"name" : "CUDA NVTX",
"version" : "12.3.52"
},
"cuda_nvvp" : {
"name" : "CUDA NVVP",
"version" : "12.3.52"
},
"cuda_opencl" : {
"name" : "CUDA OpenCL",
"version" : "12.3.52"
},
"cuda_sanitizer_api" : {
"name" : "CUDA Compute Sanitizer API",
"version" : "12.3.52"
},
"libcublas" : {
"name" : "CUDA cuBLAS",
"version" : "12.3.2.9"
},
"libcufft" : {
"name" : "CUDA cuFFT",
"version" : "11.0.11.19"
},
"libcufile" : {
"name" : "GPUDirect Storage (cufile)",
"version" : "1.8.0.34"
},
"libcurand" : {
"name" : "CUDA cuRAND",
"version" : "10.3.4.52"
},
"libcusolver" : {
"name" : "CUDA cuSOLVER",
"version" : "11.5.3.52"
},
"libcusparse" : {
"name" : "CUDA cuSPARSE",
"version" : "12.1.3.153"
},
"libnpp" : {
"name" : "CUDA NPP",
"version" : "12.2.2.32"
},
"libnvjitlink" : {
"name" : "JIT Linker Library",
"version" : "12.3.52"
},
"libnvjpeg" : {
"name" : "CUDA nvJPEG",
"version" : "12.2.3.32"
},
"nsight_compute" : {
"name" : "Nsight Compute",
"version" : "2023.3.0.12"
},
"nsight_systems" : {
"name" : "Nsight Systems",
"version" : "2023.3.3.42"
},
"nvidia_fs" : {
"name" : "NVIDIA file-system",
"version" : "2.18.3"
}
}
6. 创建容器要使用Docker的虚拟环境,需要按照以下步骤进行。
创建Dockerfile。
使用Dockerfile创建Docker镜像。
使用Docker镜像构建Docker容器。
创建Dockerfile。
使用Dockerfile创建Docker镜像。
使用Docker镜像构建Docker容器。
在这里,VScode提供了一个名为Dev Containers的扩展,可以简化以上步骤。通过在VScode上创建Dockerfile,并使用devcontainer.json,您可以在不需要使用Docker命令的情况下构建容器。
在使用VSCode进行开发时,虽然会消耗内存,也只能在VSCode中进行开发,这是一个缺点,但对于VSCode用户来说,它非常方便,值得推荐。
说明在以下网站上提供。
在Ubuntu中,您可以在想要进行任意开发的目录中执行以下命令。
code .
通过这样做,你可以在当前目录下打开VSCode。
从VSCode的扩展功能中安装Dev Containers。

重新启动VSCode后,应该会在文件夹中创建devcontainer.json文件。
首先,我们要创建 Dockerfile。由于我们希望确认 PyTorch 可以在 GPU 环境下运行,所以我们将安装最基本的包、库和框架。
这是一个已执行的Dockerfile。
requirements.txt文件位于同一目录下。
FROM nvidia/cuda:12.2.2-devel-ubuntu22.04
RUN apt update \
&& apt install -y \
git\
python3\
python3-pip
RUN apt-get autoremove -y && apt-get clean && \
rm -rf /usr/local/src/*
COPY requirements.txt /tmp/
RUN pip install --no-cache-dir -r /tmp/requirements.txt
COPY . /tmp/
torch
torchvision
transformers
需要注意的是,重点是nvidia / cuda的基础。您将会在Docker Hub上搜索图像,但如果与您自己的Ubuntu版本不兼容,那么在构建容器的过程中会出现错误。
请执行以下命令来检查Ubuntu的版本:
cat /etc/issue
Ubuntu 22.04.2 LTS \n \l #自身のバージョンを確認
请从以下链接中寻找最合适的图像。

以下是已执行的devcontainer.json。这是利用了devcontainer.json的初始格式。
{
"name": "Existing Dockerfile",
"build": {
"context": "..",
"dockerfile": "../dockerfile"
},
"runArgs": ["--gpus", "all","--shm-size","8gb"],
"customizations": {
"vscode": {
"extensions": [
"ms-python.python",
"ms-toolsai.jupyter",
"mhutchie.git-graph",
"MS-CEINTL.vscode-language-pack-ja"
]
}
}
}
重要的是 “runArgs” 和 “extensions”。
在”runArgs”中可以设置容器启动时的选项。这里我们进行了GPU的配置。
–gpus all: 为了能够使用所有的GPU。
–shm-size 8gb:将容器内共享内存的大小设置为8GB。
在”extensions”中,您可以设置要在容器内的VSCode中安装的扩展功能。
“ms-python.python” : Python的扩展功能
“ms-toolsai.jupyter” : Jupyter的扩展功能
“ms-toolsai.git-graph” : Git-graph的扩展功能。方便可视化版本管理。
“MS-CEINTL.vscode-language-pack-ja” : 日语本地化的扩展功能。
如果您想要安装附加的扩展功能,请在”extensions”中追加扩展功能的ID。
请点击扩展项中的齿轮图标,并点击”复制扩展ID”,以获取扩展功能的ID。




辛苦了!
余談:Git的版本控制在团队活动和项目开发中,使用远程存储库进行版本管理是必须的。
这篇文章的目的是在虚拟环境中创建了一个文件,通过Pytorch使用GPU进行训练,并将其用于管理模型并将其应用于应用程序,使其能够通过Git在VSCode中进行管理。


总结非常感谢您阅读到这里。
今次解释了针对Docker初学者的Pytorch GPU环境搭建。
我也只学习了不到一个星期的Docker,所以可能会有一些错误的理解,请您多多包涵。
如果能够建立这个虚拟环境,就不必特地准备本地环境,可以立即准备好可以进行版本管理的pytorch GPU环境。
希望这篇文章能够为大家的学习模型开发减少一点困难。