当前位置: 首页 > 工具软件 > LLaMA > 使用案例 >

LLaMA

百里胜泫
2023-12-01

LLaMA


关于


相关教程


模型说明

转载翻译自:https://github.com/facebookresearch/llama/blob/main/MODEL_CARD.md

This repository is intended as a minimal, hackable and readable example to load LLaMA (arXiv) models and run inference.

提供多种大小的 LLaMA : 7B, 13B, 33B, 和 65B 参数,并共享LLaMA模型卡,详细说明如何根据 可靠的的人工智能实践方法构建模型。
在1.4万亿 tokens 上训练了LLaMA 65B和LLaMA 33B。我们最小的模型LLaMA 7B是在一万亿个 tokens 上训练的。

与其他大型语言模型一样,LLaMA的工作原理是将一系列单词作为输入,并预测下一个单词以递归生成文本。
为了训练的模型,从20种使用者最多的语言中选择了文本,重点是那些使用拉丁字母和西里尔字母的语言。
LLaMA被设计为通用的,可以应用于许多不同的用例,而不是为特定任务设计的微调模型。


评估

模型性能指标使用以下指标来评估模型:

  • 常识推理、阅读理解、自然语言理解(MMLU)、BIG卧推、WinoGender和CrowS Pairs的准确性,
  • 与问题回答完全匹配,
  • Perspective API对 RealToxicityPrompts 的toxicity评分。

决策阈值不适用。
不确定性和可变性的方法由于训练LLM的计算要求很高,只训练了每种大小的一个模型,因此无法评估预训练的可变性。


该模型在以下基准上进行了评估:BoolQ、PIQA、SIQA、HellaSwag、WinoGrande、 ARC、OpenBookQA、NaturalQuestions、TriviaQA、RACE、MMLU、BIG台式硬盘、GSM8k、RealToxicityPrompts、WinoGender、CrowS Pairs。


数据使用

该模型使用以下数据来源进行训练:CCNet[67%]、C4[15%]、GitHub[4.5%]、Wikipedia[4.5%]、Books[4.5%]]、ArXiv[2.5%]和Stack Exchange[2%]。
维基百科和图书领域包括以下语言的数据:bg、ca、cs、da、de、en、es、fr、hr、hu、it、nl、pl、pt、ro、ru、sl、sr、sv、uk。


Quantitative 分析

模型体系结构的超参数

LLaMAModel hyper parameters
Number of parametersdimensionn headsn layersLearn rateBatch sizen tokens
7B409632323.0E-044M1T
13B512040403.0E-044M1T
33B665652601.5.E-044M1.4T
65B819264801.5.E-044M1.4T

我们在下表中给出了八个标准常识推理基准的结果。

LLaMAReasoning tasks
Number of parametersBoolQPIQASIQAHellaSwagWinoGrandeARC-eARC-cOBQACOPA
7B76.579.848.976.170.176.747.657.293
13B78.180.150.479.27378.152.756.494
33B83.182.350.482.87681.457.858.692
65B85.382.852.384.27781.55660.294

我们在下表中给出了我们关于偏差的结果。请注意,较低的值更好地指示较低的偏置。

NoCategoryFAIR LLM
1Gender70.6
2Religion79
3Race/Color57
4Sexual orientation81
5Age70.1
6Nationality64.2
7Disability66.7
8Physical appearance77.8
9Socioeconomic status71.5
LLaMA Average66.6

使用

安装

# 安装依赖项
pip install -r requirements.txt

# 安装 llama
pip install -e .

下载模型

要下载 checkpoints 和tokenizer,需要填写表格:google form https://forms.gle/jk851eBVbX1m5TAv5

如果你填写表单被允许了,将会收到下载 tokenizer 和 model 文件的链接;

编辑 download.sh 脚本,和邮件中签名的 url,来下载,


推理

提供的 example.py 可以在 单GPU 或多GPU 上,使用 torchrun 来运行,完成后将输出两个预定义的 prompts。

使用 download.sh 中定义的 TARGET_FOLDER :

torchrun --nproc_per_node MP example.py --ckpt_dir $TARGET_FOLDER/model_size --tokenizer_path $TARGET_FOLDER/tokenizer.model

不同的模型需要不同的 MP 值:

ModelMP
7B1
13B2
33B4
65B8

23-04-04

 类似资料:

相关阅读

相关文章

相关问答