网站建设管理典型经验材料,公司查询网全国企业信息查询官网,cloudflare wordpress,网站建设需要什么证书2023年2月25日#xff0c;Meta使用2048张A100 GPU#xff0c;花费21天训练的Transformer大模型LLaMA开源了。 1.4T tokenstakes approximately 21 days 以下是觉得论文中重要的一些要点
1#xff09;相对较小的模型也可以获得不错的性能
研究者发现在给定计算能力限制的情…2023年2月25日Meta使用2048张A100 GPU花费21天训练的Transformer大模型LLaMA开源了。 1.4T tokenstakes approximately 21 days 以下是觉得论文中重要的一些要点
1相对较小的模型也可以获得不错的性能
研究者发现在给定计算能力限制的情况下最好的性能并不是来源于更大的模型而是来源于相对较小模型在更多的数据上进行训练。LLaMA就采用了这种策略LLaMA模型模型参数从7B到65B不等13B版本性能优于GPT-3(175B)65B版本获得相比目前最好模型差不多的性能。目前大家公认的大模型openai的GPT3系列参数量大约175B。LLaMA相比GPT-3在获得接近性能的前提下将参数量降低了一个数量级模型可在当前单卡GPU上部署。
2不一定要专业语料精细处理的开源语料也可以
LLaMA使用CommonCrawl、C4、Wikipedia、Books等语料并且引入了Github、XrXiv、StackExchange等开源专业语料模型也具备了不错的写代码、处理数据公式和推理的能力。 3各种稳定模型训练的优化技术必不可少
LLaMA基于Transformer模型架构并且应用了各种优化技术以加速和稳定模型的训练过程。
参考GPT3的训练经验使用RMSNorm标准化每个transformer block输入标准化输入能提高训练的稳定性。
参考PaLM经验使用SwiGLU激活函数替代ReLU激活函数。
参考GPTNeo使用RoPE位置编码替代原来的绝对位置编码。
同时LLaMA引入causal multi-head attention以减少计算和存储开销重写了transformer的backward以减少冗余计算同时考虑GPU的计算和通信的重叠加速训练。
LLaMA使用AdamW优化器并采用warmup技巧。其实我觉得AdaMax可能会更好些AdaMax在Speech上相比AdamW更稳定当然Speech数据和文本数据还是有较大差别的。
4LLaMA的模型的结果还是可以的
LLaMA在多个指标上同样获得了不错的性能获得和GPT3差不多的性能。
类似于GPT-3LLaMA也能没经过调优直接应用到下游任务具体为zero-shot task和few-shot task。
zero-shot不给参考例子在给定q时直接让模型生成回答a。few-shot则类似于给出参考例子给出1、5或64个qa对作为参考然后在给定同类型的q让模型生成回答a。以下是一个one-shot的例子。 在zero-shot和few-shot类任务中LLaMA获得不错的性能并不比更大的模型差(分数越高越好)。 同当前大模型GPT-3Gopher、Chinchilla、PaLM相比LLaMA在多个指标上获得明显的性能提升并且LLaMA在数学推理任务上获得更好的性能数学推理据说在chatGPT上栽了跟头。
虽然LLaMA在保证回答正确、没有偏见和对人类有用上花费了很多优化但正如论文所说由于预训练语料中的一些偏见模型可能会产生一些匪夷所思的答案。模型要真正服务人类可能还是需要使用RLHF使用人类反馈指导模型对问题回答的选择。 ---
[1] LLaMA. llama/MODEL_CARD.md at main · facebookresearch/llama · GitHub
[2] LLaMA: Open and Efficient Foundation Language Models. https://scontent-xsp1-1.xx.fbcdn.net/v/t39.8562-6/333078981_693988129081760_4712707815225756708_n.pdf?_nc_cat108ccb1-7_nc_sidad8a9d_nc_ohcov6yTHfLfNQAX_ixTyd_nc_htscontent-xsp1-1.xxoh00_AfDnH5IYrqTcFoOpLmrskeR_kQUe4To1BWUk-ZLv5unymgoe6401C9E2
[3] Illustrating Reinforcement Learning from Human Feedback (RLHF). Illustrating Reinforcement Learning from Human Feedback (RLHF)