LLaMA:开放高效的基础语言模型

我们介绍了 LLaMA,这是一组基础语言模型,参数范围从 7B 到 65B。我们在数万亿个令牌上训练我们的模型,并表明可以仅使用公开可用的数据集来训练最先进的模型,而无需诉诸专有和不可访问的数据集。特别是,LLaMA-13B 在大多数基准测试中都优于 GPT-3 (175B),而 LLaMA-65B 可与最佳模型 Chinchilla-70B 和 PaLM-540B 竞争。我们将所有模型发布给研究社区。

设置
在带有 pytorch/cuda 的 conda 环境中,运行:

pip install -r requirements.txt

然后在这个存储库中:

pip install -e .

下载
一旦您的请求获得批准,您将收到下载分词器和模型文件的链接。download.sh使用电子邮件中提供的签名 url编辑脚本,以下载模型权重和分词器。

推理
所提供的example.py可以在单个或多个 gpu 节点上运行,并将torchrun输出两个预定义提示的完成。TARGET_FOLDER按照定义使用download.sh:

torchrun --nproc_per_node MP example.py --ckpt_dir $TARGET_FOLDER/model_size --tokenizer_path $TARGET_FOLDER/tokenizer.model

不同的模型需要不同的 MP 值:

模型 国会议员
7B 1个
13B 2个
33B 4个
65B 8个
常问问题
1. download.sh 脚本在 MacOS X 中的默认 bash 上不起作用
2.后代不好!
3. CUDA内存不足错误
4.其他语言
参考
LLaMA:开放高效的基础语言模型——https ://arxiv.org/abs/2302.13971

@article{touvron2023llama,
  title={LLaMA: Open and Efficient Foundation Language Models},
  author={Touvron, Hugo and Lavril, Thibaut and Izacard, Gautier and Martinet, Xavier and Lachaux, Marie-Anne and Lacroix, Timoth{\'e}e and Rozi{\`e}re, Baptiste and Goyal, Naman and Hambro, Eric and Azhar, Faisal and Rodriguez, Aurelien and Joulin, Armand and Grave, Edouard and Lample, Guillaume},
  journal={arXiv preprint arXiv:2302.13971},
  year={2023}
}

下载地址:

此隐藏内容仅限VIP查看升级VIP
资源下载

此资源仅限注册用户下载,请先

客服邮箱:[email protected]
点赞