因为torch2.0的model.compile
暂时只支持Linux系统,所以在windows上用wsl2装一个torch,顺便编译一下python3.10
1. 下载源码
wget https://www.python.org/ftp/python/3.10.11/Python-3.10.11.tgz |
2. 安装依赖
- 编译源码需要
gcc
和make
,如果已经有了可以跳过安装这两个
sudo apt install gcc make |
- 安装依赖
有了gcc和make之后理论上就可以编译源码了,但是由于依赖的问题,会导致一些模块无法编译,所以需要根据需要安装一些依赖
sudo apt install libbz2-dev libncurses5-dev libncursesw5-dev libgdbm-dev uuid-dev libffi-dev liblzma-dev libsqlite3-dev libssl-dev zlib*-dev libreadline-dev |
build-essential
:用于编译_ctypes
模块libbz2-dev
:用于编译_bz2
模块libncurses5-dev
:用于编译_curses
模块libncursesw5-dev
:用于编译_curses
模块libgdbm-dev
:用于编译_gdbm
模块uuid-dev
:用于编译_uuid
模块libffi-dev
:用于编译_ctypes
模块liblzma-dev
:用于编译_lzma
模块libsqlite3-dev
:用于编译_sqlite3
模块libssl-dev
:用于编译_ssl
模块zlib*-dev
:用于编译zlib
模块libreadline-dev
:用于编译readline
模块
(上边这些都是copilot自动补全的,模块对应的不知道对不对,但是这些依赖没有问题)
3. 编译
安装完之后编译,可能只有小部分模块还有问题,但是不影响使用(我这里是_dbm和_tkinter没有编译)
./configure --enable-optimizations --prefix=</Your/Path> |
configure的时候可以加上
--enable-optimizations
,这样编译出来的python会有一些优化,但是编译时间会变长,--prefix
指定安装路径
make的时候加上-j8
,表示开启8个线程编译,加快编译速度
安装完后之后可能还需要做一些软连接的操作,我这里安装目录是/usr
,所以不需要这些了
直接运行python3 -V
就可以看到版本了
4. cuda-toolkit安装
因为宿主机上已经有了nvidia的驱动,所以wsl2上不需要再装驱动了,可以用nvidia-smi
查看显卡信息。
cuda-toolkit是另外的的东西,在这里选好系统后,安装类型选**deb(netword)**,然后复制命令运行就好
具体细节可以看这篇文章
wget https://developer.download.nvidia.com/compute/cuda/repos/wsl-ubuntu/x86_64/cuda-keyring_1.0-1_all.deb |