pytorch本地环境搭建有四种路径:一、conda安装(推荐,自动处理cuda协同);二、pip安装(灵活,适配cpu或指定cuda版本);三、源码编译(定制化需求,如arm64或启用mkl-dnn);四、docker部署(保障跨平台一致性与ci/cd集成)。
☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

如果您希望在本地计算机上配置人工智能开发所需的PyTorch环境,但尚未完成安装或遇到依赖冲突、CUDA版本不匹配等问题,则可能是由于Python环境未规范管理、系统架构识别错误或包源不可达所致。以下是完成PyTorch环境搭建的多种可行路径:
一、使用conda命令安装(推荐用于科学计算环境)
Conda可自动处理PyTorch与CUDA工具包的版本协同,避免手动配置cuDNN路径,尤其适合Windows和Linux平台上的GPU加速场景。
1、确保已安装Anaconda或Miniconda,并在终端中执行conda --version验证可用性。
2、创建独立环境:运行conda create -n pytorch_env python=3.9,其中python版本需在PyTorch官方支持范围内。
3、激活环境:conda activate pytorch_env。
4、访问PyTorch官网安装页面,根据操作系统、包管理器、语言、CUDA版本选择对应命令。
5、复制并执行生成的conda安装命令,例如:conda install pytorch torchvision torchaudio pytorch-cuda=11.8 -c pytorch -c nvidia。
6、验证安装:python -c "import torch; print(torch.__version__); print(torch.cuda.is_available())",若输出版本号且cuda.is_available()返回True,则GPU支持已启用。
二、使用pip命令安装(适用于轻量级或已有虚拟环境)
Pip安装更灵活,可嵌入现有venv或virtualenv中,适合对环境隔离要求明确、或仅需CPU版PyTorch的开发场景。
1、确认Python版本为3.8–3.11之间,运行python --version检查。
2、升级pip至最新稳定版:python -m pip install --upgrade pip。
3、根据是否启用GPU支持,选择对应命令:
4、仅CPU版本:执行pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cpu。
5、CUDA 12.1版本:执行pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121。
6、安装完成后,在Python交互式环境中运行import torch; print(torch.backends.cudnn.enabled),若为GPU版本且返回True,表示cuDNN已正确加载。
三、从源码编译安装(适用于定制化需求或非标准硬件)
当目标平台为ARM64服务器、RISC-V设备,或需启用特定编译选项(如MKL-DNN、XLA)时,必须通过源码构建以获得完全可控的二进制文件。
1、安装必要构建依赖:Ubuntu系统执行sudo apt-get install build-essential cmake libopenblas-dev liblapack-dev libgflags-dev libgoogle-glog-dev liblmdb-dev libhdf5-serial-dev。
2、克隆PyTorch仓库:git clone --recursive https://github.com/pytorch/pytorch,注意必须包含submodule。
3、进入项目目录后,设置编译变量,例如禁用CUDA:export USE_CUDA=0;启用MPI:export USE_MPI=1。
4、执行构建命令:python setup.py develop(开发模式)或python setup.py install(全局安装)。
5、编译过程可能持续30分钟以上,期间需确保磁盘剩余空间大于15 GB。
6、验证方式同前,但需额外检查torch.__config__.show()输出中是否包含所启用的后端标识。
四、Docker容器化部署(适用于跨平台一致性与CI/CD集成)
Docker镜像封装了完整运行时栈,可规避宿主机环境差异,特别适用于团队协作、模型训练流水线及云推理服务部署。
1、确认Docker Engine已安装并运行,执行docker --version验证。
2、拉取官方PyTorch镜像:docker pull pytorch/pytorch:2.3.0-cuda12.1-cudnn8-runtime(以CUDA 12.1为例)。
3、启动交互式容器:docker run --gpus all -it --rm -v $(pwd):/workspace pytorch/pytorch:2.3.0-cuda12.1-cudnn8-runtime。
4、容器内默认工作目录为/workspace,可直接运行Python脚本或Jupyter Notebook。
5、若需持久化conda环境,应在Dockerfile中基于基础镜像添加conda install指令,并使用docker build重新构建。
6、验证GPU可见性:nvidia-smi应在容器内正常输出显卡信息,且torch.cuda.device_count()返回值应等于实际可见GPU数量。










