合肥网站推广公司哪家好怎么做58同城网站教程
2026/2/8 11:46:30 网站建设 项目流程
合肥网站推广公司哪家好,怎么做58同城网站教程,网站建设案例步骤,新公司取名字大全参考Ubuntu 18.04 配置 TensorFlow 与 PyTorch GPU 环境实战指南 在深度学习项目中#xff0c;一个稳定、高效且支持 GPU 加速的开发环境几乎是标配。然而#xff0c;对于刚接触 Linux 和 CUDA 生态的新手来说#xff0c;从零开始搭建这样一个环境往往意味着要面对驱动冲突、版…Ubuntu 18.04 配置 TensorFlow 与 PyTorch GPU 环境实战指南在深度学习项目中一个稳定、高效且支持 GPU 加速的开发环境几乎是标配。然而对于刚接触 Linux 和 CUDA 生态的新手来说从零开始搭建这样一个环境往往意味着要面对驱动冲突、版本不兼容、网络超时等一系列“经典坑”。本文基于Ubuntu 18.04 RTX 2080 Ti的真实配置完整记录了如何一步步构建支持TensorFlow 2.5 和 PyTorch 1.9 GPU 加速的双框架开发环境全程使用国内镜像加速避免因网络问题导致安装失败。整个过程涵盖了系统源更换、显卡驱动安装、Anaconda 环境管理、CUDA 与 cuDNN 配置、以及两大主流框架的离线部署方案。所有操作均经过实测验证适用于大多数 NVIDIA 显卡用户。换源提速让软件安装不再龟速Ubuntu 默认的官方源位于境外apt update动辄几分钟下载包更是经常中断。第一步就是切换为国内高速镜像源推荐阿里云或清华源。以阿里云为例编辑源列表sudo vim /etc/apt/sources.list将原内容全部注释或清空替换为以下内容对应 Ubuntu 18.04即 bionicdeb http://mirrors.aliyun.com/ubuntu/ bionic main restricted universe multiverse deb-src http://mirrors.aliyun.com/ubuntu/ bionic main restricted universe multiverse deb http://mirrors.aliyun.com/ubuntu/ bionic-security main restricted universe multiverse deb-src http://mirrors.aliyun.com/ubuntu/ bionic-security main restricted universe multiverse deb http://mirrors.aliyun.com/ubuntu/ bionic-updates main restricted universe multiverse deb-src http://mirrors.aliyun.com/ubuntu/ bionic-updates main restricted universe multiverse deb http://mirrors.aliyun.com/ubuntu/ bionic-backports main restricted universe multiverse deb-src http://mirrors.aliyun.com/ubuntu/ bionic-backports main restricted universe multiverse保存后立即更新索引并升级系统sudo apt-get update sudo apt-get upgrade -y如果遇到锁文件错误sudo rm /var/lib/dpkg/lock-frontend sudo dpkg --configure -a顺手装个vim后面频繁用到sudo apt install vim -y这一步虽小却是后续所有操作流畅进行的基础——毕竟没人愿意每次安装都等半小时。屏蔽 nouveau迎接官方驱动NVIDIA 官方驱动和开源的nouveau驱动互斥。若不提前禁用轻则安装失败重则黑屏无法进入系统。编辑黑名单文件sudo vim /etc/modprobe.d/blacklist.conf在末尾添加blacklist vga16fb blacklist nouveau blacklist rivafb blacklist rivatv blacklist nvidiafb然后更新 initramfs 并重启sudo update-initramfs -u sudo reboot重启后检查是否生效lsmod | grep nouveau没有输出说明成功屏蔽。这是关键一步跳过它等于给后续埋雷。安装编译工具链NVIDIA 驱动安装过程中需要编译内核模块因此必须先准备好基础开发工具sudo apt install build-essential -y这个包包含了gcc、g和make是 Linux 下几乎所有编译任务的前提。确认安装成功gcc --version看到版本号即可继续下一步。安装 NVIDIA 显卡驱动Runfile 方式图形界面下直接安装驱动极易失败建议关闭 GUI 进入 TTY 模式。按Ctrl Alt F3切换到终端登录界面输入用户名密码登录。停止显示管理器sudo service lightdm stop前往你下载的.run文件目录如/home/yourname/赋予执行权限cd /home/yourname/ sudo chmod x NVIDIA-Linux-x86_64-*.run执行安装命令并带上关键参数sudo ./NVIDIA-Linux-x86_64-*.run \ --no-x-check \ --no-nouveau-check \ --no-opengl-files参数含义如下---no-x-check跳过 X Server 检查避免因图形服务未完全关闭而报错---no-nouveau-check我们已手动禁用无需再次检测---no-opengl-files防止替换系统的 OpenGL 库引发桌面环境异常。安装完成后重启sudo reboot回到桌面后打开终端运行nvidia-smi如果能看到类似下面的信息恭喜你GPU 已经被系统识别----------------------------------------------------------------------------- | NVIDIA-SMI 470.82.01 Driver Version: 470.82.01 CUDA Version: 11.4 | |--------------------------------------------------------------------------- | GPU Name Persistence-M| Bus-Id Disp.A | Volatile Uncorr. ECC | | Fan Temp Perf Pwr:Usage/Cap| Memory-Usage | GPU-Util Compute M. | || | 0 GeForce RTX 208... Off | 00000000:01:00.0 Off | N/A | | 30% 45C P8 18W / 250W | 0MiB / 11019MiB | 0% Default | ---------------------------------------------------------------------------注意右上角显示的 CUDA Version 是 11.4这意味着后续安装的 CUDA Toolkit 版本应尽量匹配或略低。安装 Anaconda 并设置 Python 环境隔离Anaconda 是目前最主流的 Python 科学计算发行版其conda能完美实现多环境隔离特别适合同时维护多个深度学习项目的场景。前往 Anaconda 官网 下载 Linux 版本建议选 2021 年左右的版本兼容性好。假设下载的是Anaconda3-2021.05-Linux-x86_64.sh在终端运行bash Anaconda3-2021.05-Linux-x86_64.sh一路回车阅读协议输入yes接受许可。安装路径默认即可。当询问是否初始化 conda 时选择no—— 我们希望手动控制环境变量加载时机。安装完成后编辑 shell 配置文件vim ~/.bashrc在文件末尾添加# 区分系统 Python 与 Anaconda Python alias python3/usr/bin/python3.6 export PATH/home/yourname/anaconda3/bin:$PATH这样设置后- 执行python自动调用 Anaconda 的解释器- 执行python3则调用系统自带的 Python 3.6避免影响系统脚本- 不依赖 conda 自动注入的初始化逻辑更可控。保存退出后执行source ~/.bashrc验证python --version # 应显示 Anaconda 的 Python 版本如 3.8.8 python3 --version # 应显示 3.6.x接着创建两个独立虚拟环境分别用于 PyTorch 和 TensorFlowconda create -n pytorch python3.8 -y conda create -n tensorflow python3.8 -y查看环境列表conda env list激活某个环境只需conda activate pytorch如果你遇到conda: command not found可以手动初始化~/anaconda3/bin/conda init然后重新打开终端或执行source ~/.bashrc。安装 CUDA Toolkit 11.4虽然驱动已经包含部分 CUDA 支持但完整的开发套件仍需单独安装 CUDA Toolkit。前往 NVIDIA CUDA 下载页选择 Runfile (local) 安装方式下载cuda_11.4.2_470.57.02_linux.run。⚠️ 注意不要勾选 Driver因为我们已经安装了兼容版本的驱动。切换到 TTY 或确保图形界面已关闭执行安装sudo sh cuda_11.4.2_470.57.02_linux.run进入交互界面后- 输入accept同意协议- 使用方向键取消左侧[X] Driver的勾选- 其他组件保持默认- 选择 Install 开始安装。安装完成后配置环境变量vim ~/.bashrc追加以下内容export PATH/usr/local/cuda-11.4/bin:$PATH export LD_LIBRARY_PATH/usr/local/cuda-11.4/lib64:$LD_LIBRARY_PATH export CUDA_HOME/usr/local/cuda-11.4保存并加载source ~/.bashrc验证安装结果nvcc --version输出中应包含release 11.4表示 CUDA 编译器就绪。安装 cuDNN 8.2cuDNN 是深度神经网络的核心加速库对卷积、池化等操作做了高度优化。它是闭源组件需注册 NVIDIA 账号后才能下载。前往 cuDNN 官网选择与 CUDA 11.4 对应的版本如cudnn-linux-x86_64-8.2.1.32_cuda11.4-archive.tar.gz。下载解压tar -xzvf cudnn-linux-x86_64-8.2.1.32_cuda11.4-archive.tar.gz复制头文件和库文件到 CUDA 目录sudo cp cuda/include/cudnn*.h /usr/local/cuda/include/ sudo cp cuda/lib64/libcudnn* /usr/local/cuda/lib64/ sudo chmod ar /usr/local/cuda/include/cudnn*.h /usr/local/cuda/lib64/libcudnn*最后刷新动态链接缓存sudo ldconfig至此底层 GPU 计算栈已全部打通驱动 → CUDA → cuDNN三位一体。离线安装 PyTorch 1.9GPU 版PyTorch 官方通过 Conda 提供预编译的 GPU 版本但由于服务器在国外直接conda install极易超时。推荐使用清华镜像站离线安装。访问 清华 Anaconda 镜像 - pytorch 频道搜索pytorch-1.9.0-py3.8_cuda11.1_尽管你的 CUDA 是 11.4但 PyTorch 官方只打包到了 11.1这没关系——高版本驱动完全兼容低版本运行时。下载.tar.bz2文件到本地如~/Downloads/。激活环境并离线安装conda activate pytorch conda install --offline ~/Downloads/pytorch-1.9.0-py38_cuda11.1_*.tar.bz2等待安装完成。若提示找不到 torch 模块务必重启一次系统再试因为某些 GPU 设备节点可能尚未正确挂载。验证import torch print(torch.cuda.is_available()) # True print(torch.version.cuda) # 11.1 print(torch.device(cuda)) # torch.device cuda返回True表示 PyTorch 成功调用 GPU。离线安装 TensorFlow 2.5GPU 版TensorFlow 的 GPU 支持较为复杂尤其是旧版本对 CUDA/cuDNN 版本要求严格。TF 2.5 正好适配 CUDA 11.2 ~ 11.4 和 cuDNN 8.1与当前环境完全契合。前往 清华 PyPI 镜像 - tensorflow查找tensorflow-2.5.0-cp38-cp38-linux_x86_64.whl注意cp38表示适用于 Python 3.8。下载后进入 TensorFlow 环境conda activate tensorflow pip install numpy wheel pip install ~/Downloads/tensorflow-2.5.0-cp38-cp38-linux_x86_64.whl安装前先装numpy和wheel可避免依赖缺失错误。验证import tensorflow as tf print(TensorFlow Version:, tf.__version__) print(GPU Available: , tf.test.is_gpu_available()) print(Visible GPUs: , tf.config.experimental.list_physical_devices(GPU))预期输出TensorFlow Version: 2.5.0 GPU Available: True Visible GPUs: [PhysicalDevice(name/physical_device:GPU:0, device_typeGPU)] 提示tf.test.is_gpu_available()在 TF 2.9 中已被弃用但在 2.5 中依然有效。常见问题与避坑清单问题现象根本原因解决方法nvidia-smi: command not found驱动未安装或路径未加入检查驱动安装日志确认--no-opengl-files参数使用正确torch.cuda.is_available()返回 Falseconda 包损坏或 CUDA 不匹配使用清华镜像离线安装指定版本避免自动解析错误版本ImportError: libcudnn.so.8: cannot open shared object filecuDNN 文件未复制或未刷新缓存检查路径是否正确执行sudo ldconfigconda: command not foundconda 未初始化执行~/anaconda3/bin/conda init并重启终端安装过程卡死或崩溃图形界面干扰切换至 TTY关闭 lightdm 后再操作此外建议定期清理不必要的 conda 环境和缓存包conda clean --all避免磁盘空间被大量临时文件占用。这套环境之所以稳定是因为它遵循了一个清晰的技术选型逻辑长期支持系统 主流中间版本工具链 明确的版本对应关系。Ubuntu 18.04 虽然发布已久但仍在 LTS 支持周期内稳定性远胜新版CUDA 11.4 是 PyTorch 和 TensorFlow 多个重要版本共同支持的“黄金交叉点”而 Anaconda 的环境隔离机制则让我们可以在同一台机器上安全地运行不同需求的项目。更重要的是通过国内镜像离线安装核心组件彻底规避了网络不稳定带来的不确定性。这种“确定性交付”的思路在生产环境中尤为宝贵。如今无论是训练图像分类模型还是部署 NLP 服务这套环境都能提供坚实支撑。当你看到nvidia-smi中 GPU 利用率飙升的那一刻就知道所有的配置努力都是值得的。创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考

需要专业的网站建设服务?

联系我们获取免费的网站建设咨询和方案报价,让我们帮助您实现业务目标

立即咨询