大家好,这里是华科启明学院的ai_π
团队的系列AI分享贴,大家之前都是在实验室做做科研,打打比赛,没有怎么写过博客和帖子,最多是一些比赛分享和论文心得,所以如果这次出现写的不好的地方,还请大家多多包涵。如果读者在帖中发现错误的地方,或者因为版本更新而需要修改的地方,还请各位dalao与我们联系,我们一定尽早修改。
作者:林德铝
校对:reroze
索引:环境配置,gpu
未经团队允许,请勿转载。(因为团队里的资料可能包涵一些不能转载的部分,还请大家理解)。
本来想从双系统的安装写起的,但是无奈,身边没有多余的u盘了,所以双系统的安装还是靠大家自己了,后续回到学校看情况可能会更新。电脑配置好一点的,为了方便后续的操作,最好安装双系统,即另外一个linux系统,新手推荐ubuntu。不建议使用虚拟机,有条件的可以租用服务器。不过目前比较强的游戏本就够用啦(本人是1060和8750h)。
一. 深度学习的显卡加速配置
(显卡驱动,CUDA,cuDNN)
后续的学习过程中,常常会遇到开启gpu加速的情况,由于大家大部分调试和小部分
的运行是在个人pc机上运行的,因此配置好gpu加速是非常重要的,所谓磨刀不误砍柴工,我们来一下具体的操作。(默认电脑环境是在ubuntu18.04)
gcc/g++准备
查看gcc/g++版本要求
对于CUDA10.0
,安装的gcc/g++
版本要求为

其他版本的请参考官方安装向导
安装指定版本gcc/g++
直接使用apt-get
安装指定版本gcc
和g++
sudo apt-get install gcc-x
sudo apt-get install g++-x
设置gcc
和g++
sudo update-alternatives --install /usr/bin/gcc gcc /usr/bin/gcc-x <优先级>
sudo update-alternatives --install /usr/bin/g++ g++ /usr/bin/g++-x <优先级>
<优先级> 是一个整数,在自动模式下,这个数字越高的选项,其优先级也就越高。
输入gcc -v
和g++ -v
看是否安装成功
安装显卡驱动
查看驱动版本要求

具体请看官方指导文档
准备工作
卸载原先的所有驱动
#for case1: original driver installed by apt-get:
sudo apt-get remove --purge nvidia*
#for case2: original driver installed by runfile:
sudo chmod +x *.run
sudo ./NVIDIA-Linux-x86_64-xxx.xx.run --uninstall
禁用nouveau
打开黑名单配置文件
sudo vim /etc/modprobe.d/blacklist.conf
在最后一行添加
blacklist nouveau
之后执行命令
sudo update-initramfs -u
#重启
reboot
#检查nouveau是否被禁用
lsmod | grep nouveau
#若没有输出则成功
下载
进入NVIDIA驱动下载官网查找并下载相应的显卡驱动.run
文件

安装
按下Ctrl+Alt+(F1~F6中的任意一个)
进入命令行界面
也可使用命令行临时关闭图形界面(具体命令可能随系统版本不同而不同)
sudo service lightdm stop
输入用户名和密码登录
进入.run
文件的目录下并赋予执行权限
sudo chmod a+x *.run
运行.run
文件进行安装(注意参数)
sudo ./*.run –no-opengl-files
参数说明
–no-opengl-files
只安装驱动文件,不安装OpenGL
文件。这个参数最重要
–no-x-check
安装驱动时不检查X服务
–no-nouveau-check
安装驱动时不检查nouveau
后面两个参数可不加。
安装过程都默认yes
安装完成后reboot
重启
验证
重启后在命令行输入nvidia-smi
以验证安装成功

安装CUDA
下载
进入NVIDIA的CUDA下载官网下载相应版本的.run
文件 (以CUDA10.0
为例)

安装
下载完成后根据提示安装
sudo sh cuda_*.run
在安装过程中除了安装驱动选项选择no
,其他选择yes
或默认
环境变量配置
打开.bashrc
文件
sudo vim ~/.bashrc
在文件结尾加上
export PATH=/usr/local/cuda/bin:$PATH
export LD_LIBRARY_PATH=/usr/local/cuda/lib64:$LD_LIBRARY_PATH
使bashrc
文件生效
source ~/.bashrc
验证
输入nvcc -V
验证能否查看CUDA
版本
进入Sample
文件夹
输入make
进行编译
编译完成后可以在Sample
目录下找到bin/x86_64/linux/release/
目录
进入该目录后运行deviceQuery
程序
sudo ./deviceQuery
查看输出结果的最后一行
若为pass
则CUDA
安装成功
卸载
在/usr/local/cuda/bin
目录下运行cuda
自带的卸载工具uninstall_cuda_*.pl
sudo ./uninstall_cuda_*.pl
安装cuDNN
下载
进入NVIDIA的cuDNN下载官网下载对应CUDA
版本的cuDNN
选择cuDNN Library for Linux
下载
安装
参考cuDNN Installation Guide进行安装
#解压下载的.tgz文件
tar -xzvf cudnn-*.tgz
#将解压出的文件拷贝到CUDA安装目录
sudo cp cuda/include/cudnn.h /usr/local/cuda/include
sudo cp cuda/lib64/libcudnn* /usr/local/cuda/lib64
sudo chmod a+r /usr/local/cuda/include/cudnn.h /usr/local/cuda/lib64/libcudnn*
那么,至此显卡驱动和CUDA和cuDNN就配置完毕了,接下来介绍一下之后可能会用到的一些python库。
\1. numpy
\2. torch(pytorch)
\3. tensorflow
\4. tensorflow-gpu
\5. pandas
\6. matplotlib
深度学习的代码主要是由python语言编写,在这里使用anaconda或者pycharm都可以。Anaconda和pycharm的安装很简单,我们就不在此介绍了。那么到这里,大家的个人pc就完成了基本的配置,那我们的第一个帖子作为配置环境就到这里为止了,下一期将开始实际项目的效果测试或者一些基本模型的复现。大家有什么想听的也可以在评论区留言,我们会综合大家的意见更新后续的帖子。或者有什么想与团队交流和也可以通过邮箱与我们联系。
--------------------------------------------------------------------------------联系方式:hust_aipai@163.com