在Linux系统上安装Llama3模型可以通过Ollama工具来实现,以下是详细的步骤和技巧:
sudo apt update && sudo apt install -y curlcurl -fsSL https://ollama.com/install.sh | sh或者,您可以先下载脚本查看内容,确认无误后再执行:
curl -fsSL https://ollama.com/install.sh -o install_ollama.sh
cat install_ollama.sh
bash install_ollama.shollama run llama3:8b这将下载并运行8亿参数的Llama3模型。您也可以使用ollama run llama3来运行默认的8B模型。
sudo apt-get install -y apt-transport-https ca-certificates curl python-software-properties software-properties-common
curl -fsSL https://mirrors.ustc.edu.cn/docker-ce/linux/debian/gpg | sudo apt-key add -
# 根据您的Deepin Linux版本添加相应的Docker CE仓库
deb [arch=amd64] https://mirrors.ustc.edu.cn/docker-ce/linux/debian buster stable
sudo apt-get update
sudo apt-get install -y docker-ce docker-ce-cli containerd.io
sudo systemctl start docker
sudo systemctl enable dockerdocker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main或者使用国内下载源:
docker run -d -p 3000:8080 --network=host -v open-webui:/app/backend/data -e OLLAMA_BASE_URL=http://127.0.0.1:11434 --name open-webui --restart always ghcr.io/open-webui/open-webui:mainsudo systemctl start ollama
sudo systemctl status ollama确认状态为“active (running)”。
ollama run llama3:8b这将启动与模型的交互界面,您可以在浏览器中访问http://localhost:3000来使用OpenWebUI。
nvidia-smi确认设备可见性,添加 --gpus=all启动参数。lsof -i:11434检测端口占用,修改服务文件中的监听端口配置。df -i),设置 OLLAMA_DEBUG=1输出详细日志。OLLAMA_ORIGINS="*"解除跨域限制,配置镜像仓库地址提升下载速度。OLLAMA_KEEP_ALIVE=24h防止长时对话中断,OLLAMA_NUM_PARALLEL=100优化并发吞吐。OLLAMA_MAX_LOADED_MODELS=4限制内存占用。ollama prune清理缓存。