以下是在Linux上安装Llama3的几种方法:
curl -fsSL https://ollama.com/install.sh | sh。docker run -d --gpus=all -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama;也可直接用CLI命令ollama serve。ollama run llama3,若要指定版本,如8B模型,可输入ollama run llama3:8b。git clone https://github.com/meta-llama/llama3.git,然后进入目录cd llama3。python3 -m venv venv,source venv/bin/activate。pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118,pip install -r requirements.txt,pip install -e .。llama3/code/utils/init_process_group.py文件中的nccl为gloo,并设置相关环境变量。chat.py文件并添加必要代码,然后执行python chat.py --ckpt_dir Meta-Llama-3-8B-Instruct/ --tokenizer_path Meta-Llama-3-8B-Instruct/tokenizer.model --max_seq_len 512 --max_batch_size 6。