ps做网站导航条高度,厦门营销网站建设公司,河北建设银行官网招聘网站,潍坊做网站建设目录 准备1. WSL安装cuda container toolkit2. win11 Docker Desktop 设置3. WSL创建docker container并连接cuda4. container安装miniconda#xff08;可选#xff09; Docker容器可以从底层虚拟化#xff0c;使我们能够在
不降级 CUDA驱动程序的情况下使用
任何版本的CU… 目录 准备1. WSL安装cuda container toolkit2. win11 Docker Desktop 设置3. WSL创建docker container并连接cuda4. container安装miniconda可选 Docker容器可以从底层虚拟化使我们能够在
不降级 CUDA驱动程序的情况下使用
任何版本的CUDA Toolkit非常方便。 当然Docker容器并不会提供真正的硬件虚拟化而是通过隔离喝共享宿主机的操作系统内核来实现虚拟化。 准备
名称版本win11wsl2Ubuntu-22.04以下简称WSL(Host) Driver Version537.58不建议更高版本
1. WSL安装cuda container toolkit
需要docker深度学习的这个必装因为我们后续是从wsl中创建docker container。 安装说明链接https://docs.nvidia.com/datacenter/cloud-native/container-toolkit/latest/install-guide.html 我是按以下安装的
curl -fsSL https://nvidia.github.io/libnvidia-container/gpgkey | sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg \ curl -s -L https://nvidia.github.io/libnvidia-container/stable/deb/nvidia-container-toolkit.list | \sed s#deb https://#deb [signed-by/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg] https://#g | \sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.listsed -i -e /experimental/ s/^#//g /etc/apt/sources.list.d/nvidia-container-toolkit.list
sudo apt-get update
sudo apt-get install -y nvidia-container-toolkitsudo nvidia-ctk runtime configure --runtimedocker
systemctl --user restart docker2. win11 Docker Desktop 设置
Docker Desktop setting里设置如下这样wsl中的docker image 和 container 也都可以在Docker Desktop这里看到。
3. WSL创建docker container并连接cuda
在docker中使用nvidia gpu需要使用nvidia/cuda发布的images看tag可以选cuda-toolkit版本。我选的是11.6的这里需要注意的是runtime版本虽然小但是cuda-toolkit不完整所以最后我选的是11.6.1-cudnn8-devel-ubuntu20.04。 在wsl里运行
docker pull nvidia/cuda:11.6.1-cudnn8-devel-ubuntu20.04
# 为了保证可视化 run image 时加以下参数
docker run -it --gpus all -e NVIDIA_DRIVER_CAPABILITIEScompute,utility -e NVIDIA_VISIBLE_DEVICESall --name 自定义 --envDISPLAY --envQT_X11_NO_MITSHM1 --volume/tmp/.X11-unix:/tmp/.X11-unix:rw --device/dev/dri:/dev/dri -p 自定义:自定义 nvidia/cuda:11.6.1-cudnn8-devel-ubuntu20.04 bash安装VcXsrv可以可视化可视化的部分请看这篇。 这时候已经有/cuda了。
(robodiff) root108c7c90b1f5:/usr/local# ls
bin cuda cuda-11 cuda-11.6 etc games include lib man sbin share src但这时候 nvcc -V应该是不可以的需要先给/cuda和/cuda-11.6建立链接然后在~/.bashrc里添加以下记得source ~/.bashrc。
# 给/cuda和/cuda-11.6建立链接
ln -sf /usr/local/cuda-11.6 /usr/local/cudaexport CUDA_HOME/usr/local/cuda
export PATH${PATH}:${CUDA_HOME}/bin
export LD_LIBRARY_PATH${CUDA_HOME}/lib64${LD_LIBRARY_PATH::${LD_LIBRARY_PATH}}这时候nvcc -V可以是我想要的v11.6如下图。
我们也可以用cuda-samples进一步验证。(此步可略)
cd /usr/local/cuda/
git clone https://github.com/NVIDIA/cuda-samples.git
cd cuda-samples
git checkout tags/v11.6 #选择指定tag的版本
cd Samples/1_Utilities/deviceQuery
make #这时候会生成名为 deviceQuery 的可执行文件
./deviceQuery #运行它会显示cuda相关的所有信息最后一行显示了 Result PASS 就说明我们cuda安装成功并且可以运行了。 此时装的pytorch就可以使用GPU了。
4. container安装miniconda可选
container中可以安装 minicoda各个版本的链接在这https://repo.anaconda.com/miniconda/。选个自己需要的版本安装我的版本是Miniconda3-py39_24.1.2-0-Linux-x86_64.sh。
mkdir -p /opt/conda
wget https://repo.anaconda.com/miniconda/Miniconda3-py39_24.1.2-0-Linux-x86_64.sh -O /opt/conda/miniconda.sh \ bash /opt/conda/miniconda.sh -b -p /opt/miniconda
chmod x /opt/conda/miniconda.sh
. /opt/miniconda/bin/activate这时候会打开conda并创建base环境说明我们安装成功。为了不每次打开conda都要运行. /opt/miniconda/bin/activate我把它写在~/.bashrc里然后source ~/.bashrc这样打开的所有terminal都可以使用conda。
开始我们的深度学习吧 ~