检查点#
通常情况下,您可以直接通过使用--model_name_or_path从检查点加载模型。但由于版权问题,LLaMA的情况略有不同。
LLaMA 模型检查点#
首先,您需要从facebookresearch/llama获取LLaMA模型的访问权限。下载官方检查点并将其保存到
${llama-path}中。其次,通过运行以下命令将官方检查点
${llama-path}转换为HuggingFace支持的检查点${llama-hf-path}python ./scripts/convert_llama_weights_to_hf.py --input_dir ${llama-path} --model_size 7B --output_dir ${llama-hf-path}/llama-7b-hf然后您只需将检查点路径设置为
${llama-hf-path}/llama-7b-hf就可以开始使用了。祝您使用愉快!(可选) 现在您已经拥有原始的llama-7b-hf预训练模型。通过
cd output_models && ./download.sh all && cd -
您可以获取我们微调后的模型差异。通过类似于./scripts/run_evaluation_with_lora.sh的方式,
CUDA_VISIBLE_DEVICES=0 \
deepspeed examples/evaluate.py \
--answer_type text \
--model_name_or_path ${llama-hf-path}/llama-7b-hf \
--lora_model_path output_models/${llama-model-diff-path} \
--dataset_path data/alpaca/test \
--prompt_structure "Input: {input}" \
--deepspeed examples/ds_config.json
您现在可以使用微调后的llama模型进行评估。