Windows部署OpenELM的最佳实践
C:\Program Files\Ollama);ollama serve启动服务(服务会自动后台运行)。ollama run 模型名称(如ollama run deepseek-r1:7b);http://localhost:11434,在“Model”下拉框中选择已部署的模型(如deepseek-r1:7b),输入提示词(如“Hello, how are you?”),若模型返回流畅回复,则部署成功。docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
(命令说明:-p 3000:8080将容器8080端口映射到主机3000端口;--add-host允许容器访问主机网络;-v将模型数据持久化存储到Docker卷);
http://localhost:3000,注册并登录账号,点击“Settings”→“Language”修改为“简体中文”,再点击“Model”→“Add model”选择已安装的OpenELM模型(如deepseek-r1:7b),即可通过Web界面与模型交互。conda create -n openelm_env python=3.8创建独立环境,激活后安装依赖(conda install -c conda-forge transformers torch datasets),避免不同项目间的库冲突。max_length(生成文本长度,默认20,可设为50-100)、temperature(生成随机性,0.1-0.7,越小越确定)、top_p(核采样阈值,0.9-1.0,越高越多样);例如:openelm_model.generate(input_ids=torch.tensor([[101]]), max_length=50, temperature=0.7)。
--mirror参数加速模型下载(如ollama pull --mirror=https://mirrors.huaweicloud.com/ollama deepseek:7b);deepseek-r1:1.5b或deepseek-r1:3b),或降低batch_size(如从4改为1);也可关闭其他占用内存的程序。https://huggingface.co),若使用代理,需在命令提示符中设置:set HTTP_PROXY=http://proxy_ip:port和set HTTPS_PROXY=https://proxy_ip:port。
ollama serve正在运行);deepseek-r1:7b而非deepseek:7b);D:\ollama-models\deepseek-r1:7b)后重新拉取。ollama serve允许规则(入站端口11434);