llama 2 是一个由 meta 开发的大型语言模型,是 llama 1 的继任者。llama 2 可通过 aws、hugging face 获取,并可以自由用于研究和商业用途。llama 2 预训练模型在 2 万亿个标记上进行训练,相比 llama 1 的上下文长度增加了一倍。它的微调模型则在超过 100 万个人工标注数据下完成。
这篇博客包含了所有的相关资源,以帮助您快速入门。
来自 meta 官方的公告可以在这里找到:https://ai.meta.com/llama/
llama 2 是什么? meta 发布的 llama 2,是新的 sota 开源大型语言模型(llm)。llama 2 代表着 llama 的下一代版本,可商用。llama 2 有 3 种不同的大小 —— 7b、13b 和 70b 个可训练参数。与原版 llama 相比,新的改进包括:
在 2 万亿个标记的文本数据上进行训练 允许商业使用 默认使用 4096 个前后文本视野 70b 模型采用了分组查询注意力(gqa) 可以在 hugging face hub 上直接获取https://hf.co/models?other=llama-2 即刻解锁 llama2 有几个不同的游乐场供与 llama 2 来测试:
huggingchat 在我们推出的 huggingchat 中使用 llama 2 70b:https://hf.co/chat
hugging face space 应用 我们在 space 应用上提供了三个大小的 llama 2 模型的体验,分别是:
7bhttps://hf.co/spaces/huggingface-projects/llama-2-7b-chat 13bhttps://huggingface.co/spaces/huggingface-projects/llama-2-13b-chat 70bhttps://huggingface.co/spaces/ysharma/explore_llamav2_with_tgi perplexity perplexity 的对话 ai 演示提供 7b 和 13b 的 llama 2 模型:https://llama.perplexity.ai/
llama 2 背后的研究工作 llama 2 是一个基础大语言模型,它由网络上公开可获取到的数据训练完成。另外 meta 同时发布了它的 chat 版本。chat 模型的第一个版本是 sft(有监督调优)模型。在这之后,llama-2-chat 逐步地经过人类反馈强化学习(rlhf)来进化。rlhf 的过程使用了拒绝采样与近端策略优化(ppo)的技术来进一步调优聊天机器人。meta 目前仅公布了模型最新的 rlhf (v5) 版本。若你对此过程背后的过程感兴趣则请查看:
llama 2: 开源并已微调的聊天模型https://arxiv.org/abs/2307.09288 llama 2: 一个超赞的开源大语言模型https://www.interconnects.ai/p/llama-2-from-meta llama 2 的全面拆解https://www.youtube.com/watch?v=zjbprn2ztco llama 2 的性能有多好,基准测试? meta 表示:
llama 2 在众多外部基准测试中都优于其他开源的语言模型,包括推理、编程、熟练程度与知识测验。
关于其性能你可以在这里找到更多信息:
hugging face 开源大语言模型排行榜https://hf.co/spaces/huggingfaceh4/open_llm_leaderboard meta 官方公告https://ai.meta.com/llama/ 如何为 llama 2 chat 写提示词 (prompts) llama 2 chat 是一个开源对话模型。想要与 llama 2 chat 进行高效地交互则需要你提供合适的提示词,以得到合乎逻辑且有帮助的回复。meta 并没有选择最简单的提示词结构。
以下是单轮、多轮对话的提示词模板。提示词模板遵循模型训练过程,你可以在这里查看到详细描述:
llama 2 论文https://hf.co/papers/2307.09288 llama 2 提示词模板https://gpus.llm-utils.org/llama-2-prompt-template/ 单轮对话
[inst] {{ system_prompt }}{{ user_message }} [/inst] 多轮对话
[inst] {{ system_prompt }}{{ user_msg_1 }} [/inst] {{ model_answer_1 }} [inst] {{ user_msg_2 }} [/inst] {{ model_answer_2 }} [inst] {{ user_msg_3 }} [/inst] 如何训练 llama 2 因 llama 2 为开源模型,使得可以轻易的通过微调技术,比如 peft,来训练它。这是一些非日适合于训练你自己版本 llama 2 的学习资源:
扩展指引:指令微调 llama 2https://www.philschmid.de/instruction-tune-llama-2 在 amazon sagemaker 上微调 llama 2 (7-70b)https://www.philschmid.de/sagemaker-llama2-qlora 使用 peft 技术微调https://hf.co/blog/zh/llama2#fine-tuning-with-peft meta 提供的 llama 模型示例以及方案https://github.com/facebookresearch/llama-recipes/tree/main 在本地机器上微调 llama-v2 最简单的方法!https://www.youtube.com/watch?v=3fsn19oi_c8 如何部署 llama 2? llama 2 可以在本地环境部署,使用托管服务如 hugging face inference endpoints 或通过 aws、google cloud、microsoft azure 等。
你可以查阅下述资源:
llama.cpphttps://github.com/ggerganov/llama.cpp 使用文本生成接口与推理终端来部署 llama 2https://hf.co/blog/llama2#using-text-generation-inference-and-inference-endpoints 使用 amazon sagemaker 部署 llama 2 70bhttps://www.philschmid.de/sagemaker-llama-llm 在你的 m1/m2 mac 上通过 gpu 接口来本地部署 llama-2-13b-chathttps://gist.github.com/adrienbrault/b76631c56c736def9bc1bc2167b5d129
亚马逊员工盗窃新款iPhone日前被捕
如何解决高工作频率的器件高速电路板设计信号完整性问题
手机或将成虚拟现实技术的下个平台
选择工业机器人手爪最应该注意的六大重点
浅析力学所在热释电能量收集器性能评估标准研究中取得进展
关于Llama 2的一切资源,我们都帮你整理好了
自拍入侵二次元天才网友玩转现实版“玩具总动员”
溱者智能科技发布最新协作机器人
高通发布二代5G基带骁龙X55 支持多模全频段全球最快
三星SDI净利润依然还处于下滑通道
苹果Thunderbolt LED Cinema Display新品曝光
微雪电子Wireless-AC8265无线通信模块简介
三电平拓扑结构的脉冲整流器的优缺点
韩国金融研究院研究人员呼吁央行在区块链上发行数字化代币
武汉芯源CW32F003系列产品在料位开关上的应用
将SDN引入工业物联网
广凌实验室管理系统:实验室用房从未如此简单~
储能设备的人机交互模块需要符合什么要求?
支付宝发布新人脸识别技术 将更有效地避免各种人脸伪造带来的身份冒用情况
iOS11即将发布:iOS11会出现的8个新功能或改进,Siri更调皮?