在Linux上部署Llama3主要有以下两种方法:
curl -fsSL https://ollama.com/install.sh | sh
安装。ollama run llama3
命令下载,可指定版本如ollama run llama3:70b
。/etc/systemd/system/ollama.service
文件,设置OLLAMA_HOST
等环境变量,然后重启服务。git clone https://github.com/meta-llama/llama3.git
。python3 -m venv venv
,source venv/bin/activate
。pip install -e .
,pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118
。llama3/code/utils/init_process_group.py
文件,设置相关环境变量。chat.py
文件并添加代码,执行python chat.py --ckpt_dir Meta-Llama-3-8B-Instruct/ --tokenizer_path Meta-Llama-3-8B-Instruct/tokenizer.model --max_seq_len 512 --max_batch_size 6
。