在 Windows 上快速启动 OpenELM 的实用方案
一 准备环境
二 最快方式 命令行一键启动
1) 生成并保存令牌到本地文件(只做一次):在 Python 中运行
from huggingface_hub import login
login()
按提示输入你的 HF_ACCESS_TOKEN,完成后会在用户目录生成 ~/.huggingface/token。
2) 在 CMD 或 PowerShell 中启动交互式会话(模型首次运行会自动下载到缓存目录):
python - <<'PY'
from transformers import AutoModelForCausalLM, AutoTokenizer, pipeline
import torch
model_name = "apple/OpenELM-3B-Instruct"
device = "cuda" if torch.cuda.is_available() else "cpu"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name).to(device)
gen = pipeline("text-generation", model=model, tokenizer=tokenizer, device=0 if device=="cuda" else -1)
print("OpenELM 已启动,输入 exit 退出。")
while True:
try:
p = input("Prompt> ").strip()
if p.lower() in ("exit","quit"): break
out = gen(p, max_new_tokens=80, do_sample=True, temperature=0.7, top_p=0.9)
print("→", out0)
except KeyboardInterrupt:
break
PY
python -c "from transformers import pipeline; import torch; m='apple/OpenELM-3B-Instruct'; d='cuda' if torch.cuda.is_available() else 'cpu'; g=pipeline('text-generation',model=m,device=0 if d=='cuda' else -1); t=open('prompt.txt','r',encoding='utf-8').read(); print(g(t,max_new_tokens=120)0)"
三 一键启动方案 桌面快捷方式与任务栏固定
cmd.exe /k "cd /d D:YourOpenELM && python - <<'PY'
from transformers import AutoModelForCausalLM, AutoTokenizer, pipeline
import torch
model_name='apple/OpenELM-3B-Instruct'
device='cuda' if torch.cuda.is_available() else 'cpu'
tokenizer=AutoTokenizer.from_pretrained(model_name)
model=AutoModelForCausalLM.from_pretrained(model_name).to(device)
gen=pipeline('text-generation',model=model,tokenizer=tokenizer,device=0 if device=='cuda' else -1)
print('OpenELM 已启动,输入 exit 退出。')
while True:
try:
p=input('Prompt> ').strip()
if p.lower() in ('exit','quit'): break
print('→',gen(p,max_new_tokens=80,do_sample=True,temperature=0.7,top_p=0.9)0)
except KeyboardInterrupt: break
PY"
名称填写如:OpenELM 交互式。完成后可右键该快捷方式 → 固定到任务栏,实现真正的一键启动。
四 常见问题与加速建议