配置环境:PVE虚拟机Debian
直通显卡:Proxmox PVE虚拟机配置Debian 12实现NVIDIA显卡直通解决方法http://www.kaixinit.com/linux/pve/9949.html
适用于Debian系统,GPU版大模型工具ollama运行,需要独立显卡,(Ubuntu执行会出现错误),具体操作如下:
分别新建gpu_install.txt脚本文件:
nano gpu_install1.txt nano gpu_install1.txt
分别执行脚本命令:
sudo sh gpu_install1.txt sudo sh gpu_install2.txt
以下分别为一键脚本cpu_install.txt内容:
第一部分脚本gpu_install1.txt,安装docker和gpu显卡驱动,docker依赖环境这些换成国内源仓库了,速度快点
#Debian更新软件包升级 sudo apt update sudo apt update -y #Docker安装依赖 sudo apt-get update sudo apt-get install ca-certificates curl gnupg #Docker的GPG公钥并添加仓库: sudo install -m 0755 -d /etc/apt/keyrings curl -fsSL https://download.docker.com/linux/debian/gpg | sudo gpg --dearmor -o /etc/apt/keyrings/docker.gpg sudo chmod a+r /etc/apt/keyrings/docker.gpg echo \ "deb [arch=$(dpkg --print-architecture) signed-by=/etc/apt/keyrings/docker.gpg] https://mirrors.cernet.edu.cn/docker-ce/linux/debian \ "$(. /etc/os-release && echo "$VERSION_CODENAME")" stable" | \ sudo tee /etc/apt/sources.list.d/docker.list > /dev/null #Docker的安装 sudo apt-get update sudo apt-get install docker-ce docker-ce-cli containerd.io docker-buildx-plugin docker-compose-plugin #gpu 版本 wget https://developer.download.nvidia.com/compute/cuda/repos/debian12/x86_64/cuda-keyring_1.1-1_all.deb sudo dpkg -i cuda-keyring_1.1-1_all.deb sudo apt-get update sudo apt-get install -y cuda-drivers curl -fsSL https://nvidia.github.io/libnvidia-container/gpgkey \ | sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg curl -s -L https://nvidia.github.io/libnvidia-container/stable/deb/nvidia-container-toolkit.list \ | sed 's#deb https://#deb [signed-by=/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg] https://#g' \ | sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.list sudo apt-get update sudo apt-get install -y nvidia-container-toolkit sudo nvidia-ctk runtime configure --runtime=docker
第一部分安装完毕后,执行命令:(原来是放在第一部分,但是重启pve虚拟机会假死,手动执行一下)
sudo systemctl restart docker sudo reboot
第二部分脚本gpu_install2.txt,安装docker版ollama大模型和open-webui工具
#运行docker sudo docker run --network=bridge -d --gpus=all -v ollama:/root/.ollama -p 11434:11434 --restart=always --name ollama ollama/ollama #加载open-webui sudo docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
如果下载ollama太慢,先拉取镜像 sudo docker pull ollama/ollama:latest 构建容器ollama sudo docker run -d --gpus=all -v ollama:/root/.ollama -p 11434:11434 --restart=always --name ollama/ollama:latest
如果下载open-webui太慢,先拉取镜像 #拉取镜像open-webui sudo docker pull dyrnq/open-webui #构建容器open-webui sudo docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always dyrnq/open-webui:latest
如果在open-webui里面下载不了模型,可进入容器进行下载
sudo docker ps sudo docker exec -it 容器ID bash ollama pull qwen ollama pull llama3 ollama pull qwen:7b
原创文章,作者:开心电脑网,如若转载,请注明出处。