Windows安装OpenELM步骤
pip(Python包管理工具,默认随Python安装)、transformers(Hugging Face模型加载库)、torch(PyTorch深度学习框架)、datasets(数据处理库)。为避免依赖冲突,建议使用虚拟环境:
python -m venv openelm_envopenelm_env\Scripts\activateopenelm_env\Scripts\Activate.ps1(需允许脚本执行)。在激活的虚拟环境中,运行以下命令安装所需库:
pip install transformers torch datasetstransformers(含OpenELM模型支持)、torch(GPU版本需指定torch==2.x.x+cu117,如pip install torch==2.1.0+cu117)及datasets库。通过Hugging Face Hub获取OpenELM模型(以OpenELM-3B-Instruct为例):
transformers库直接加载(无需手动下载模型文件):from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "apple/OpenELM-3B-Instruct"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name, trust_remote_code=True)transformers库的from_pretrained方法指定模型路径及令牌:model = AutoModelForCausalLM.from_pretrained("apple/OpenELM-3B-Instruct", use_auth_token="YOUR_HF_TOKEN")运行以下Python代码,测试模型是否能正常生成文本:
from transformers import pipeline
# 创建文本生成管道
generator = pipeline('text-generation', model='apple/OpenELM-3B-Instruct', device='cuda' if torch.cuda.is_available() else 'cpu')
# 生成文本(提示词+参数设置)
output = generator("Once upon a time there was", max_length=50, repetition_penalty=1.2)
print(output[0]['generated_text'])OpenELM-270M);降低max_length(生成文本长度);使用device='cpu'(仅建议小模型使用)。huggingface.co);关闭防火墙或代理;确认访问令牌是否正确。torch版本匹配的CUDA(如torch 2.1.0需CUDA 11.7);或在安装torch时指定CUDA版本。