Windows部署OpenELM的最佳实践
C:\Program Files\Ollama
);ollama serve
启动服务(服务会自动后台运行)。ollama run 模型名称
(如ollama run deepseek-r1:7b
);http://localhost:11434
,在“Model”下拉框中选择已部署的模型(如deepseek-r1:7b
),输入提示词(如“Hello, how are you?”),若模型返回流畅回复,则部署成功。docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
(命令说明:-p 3000:8080
将容器8080端口映射到主机3000端口;--add-host
允许容器访问主机网络;-v
将模型数据持久化存储到Docker卷);
http://localhost:3000
,注册并登录账号,点击“Settings”→“Language”修改为“简体中文”,再点击“Model”→“Add model”选择已安装的OpenELM模型(如deepseek-r1:7b
),即可通过Web界面与模型交互。conda create -n openelm_env python=3.8
创建独立环境,激活后安装依赖(conda install -c conda-forge transformers torch datasets
),避免不同项目间的库冲突。max_length
(生成文本长度,默认20,可设为50-100)、temperature
(生成随机性,0.1-0.7,越小越确定)、top_p
(核采样阈值,0.9-1.0,越高越多样);例如:openelm_model.generate(input_ids=torch.tensor([[101]]), max_length=50, temperature=0.7)
。
--mirror
参数加速模型下载(如ollama pull --mirror=https://mirrors.huaweicloud.com/ollama deepseek:7b
);deepseek-r1:1.5b
或deepseek-r1:3b
),或降低batch_size
(如从4改为1);也可关闭其他占用内存的程序。https://huggingface.co
),若使用代理,需在命令提示符中设置:set HTTP_PROXY=http://proxy_ip:port
和set HTTPS_PROXY=https://proxy_ip:port
。
ollama serve
正在运行);deepseek-r1:7b
而非deepseek:7b
);D:\ollama-models\deepseek-r1:7b
)后重新拉取。ollama serve
允许规则(入站端口11434);