chatgpt的出现让大模型迅速出圈,事实上,在过去这些年中,模型规模在快速提升。数据显示,自2016年至今,模型大小每18个月增长40倍,自2019年到现在,更是每18个月增长340倍。
然而相比之下,硬件增长速度较慢,自2016年至今,gpu的性能增长每18个月1.7倍,模型大小和硬件增长的差距逐渐扩大。显存占用大、算力消费大、成本高昂等瓶颈严重阻碍aigc行业的快速发展。在此背景下,潞晨科技创始人尤洋认为,分布式训练势在必行。
图:潞晨科技创始人尤洋演讲
基础大模型结构为模型训练提供了基础架构
其一、google首创的transformer大模型,是现在所有大模型最基础的架构。现在transformer已经成为除了mlp、cnn、rnn以外第四种最重要的深度学习算法架构。
其二、google发布的首个预大模型bert,从而引爆了预练大横型的潮流和的势,bert强调了不再像以往一样采用传统的单向语言模型或者把两个单向语言横型进行浅层拼接的方法进行预认训练,而是采用新的masked language model(mlm),以致能生成深度的双向语言表征。
其三、vit google提出的首个使用transformert的视觉大模型,vit作为视觉转换器的使用,而不是cnn威混合方法来执行图像任务,作者假设进一步的预认训练可以提高性能,因为与其他现有技术模型相比,vit具有相对可扩展性。
其四、google将transformer中的feedforward network(ffn)层替换成了moe层,并且将moe层和数据并行巧妙地结合起来,在数据并行训练时,模型在训练集群中已经被复制了若干份,通过在多路数据并行中引入al-to-al通信来实现moe的功能。
在这些基础大模型结构之上,过去这些年,在大模型的发展历程中,出现了几个具有里程碑意义性的大模型包括gpt-3、t5、swin transformer、switch transformer。
gpt-3:openai发布的首个百亿规模的大模型,应该非常具有开创性意义,现在的大模型都是对标gpt-3,gpt-3依旧延续自己的单向语言模型认训练方式,只不过这次把模型尺寸增大到了1750亿,并且使用45tb数据进行训练。
t5(text-to-text transfer transformer):google t5将所有nlp任务都转化成text-to-text(文本到文本)任务。它最重要作用给整个nlp预训型领城提供了一个通用框架,把所有任务都转化成一种形式。
swin transformer:微软亚研提出的swin transformer的新型视觉transformer,它可以用作计算机视的通用backbone。在个领域之同的差异,例如视觉实体尺度的巨大差异以及与文字中的单词相比,图像中像素的高分率,带来了使transformer从语言适应视觉方面的挑战。
超过万亿规模的稀疏大模型switch transformer:能够训练包含超过一万亿个参数的语言模型的技术,直接将参数量从gpt-3的1750亿拉高到1.6万亿,其速度是google以前开发的语言模型t5-xxl的4倍。
另外,更具里程碑意义的大模型,在pathways上实现的大预言模型palm。
分布式框架pathways:pathways的很多重要思想来源于现有系统,包括用于表达和执行tpu计算的xla、用于表征和执行分布式cpu计算的tensorflow图和执行器、基于python编程框架的jax以及tensorflow apl,通过有效地使用这些模块,pathways不需要对现有横型进行很多改动就能运行。
palm模型:palm吸引人眼球的是该模型具有5400亿参数以及果用新一代ai框架pathways训练。模型结构也给出了很多方面优化,这些技术优化工作汲取了现有突出的研究成果,具体包括swiglu激活函数代替relu、层并行技术(parallel layers)、多查询注意力(multi-query attention),旋转位置编码(rope)、共享输入和输出词嵌入、去掉偏置参数(no biases)等。
palm模型也是通过堆叠transformer中的decoder部分而成,该模型具有5400亿参数以及采用新一代ai框架pathways训练。
大规模分布式训练当前主要技术路线
大规模分布式训练当前主要技术路线——并行训练技术。分布式训练并行技术即通过在训练过程中使用gpu集群(多机多卡)来提高神经网络的训练速度。
数据并行:相同的设置和模型被复制多份,每份每次都被馈送不同的一份数据,处理是并行完成的,所有份在每个训练步结束时同步。
张量并行:每个张量都被分成多个块,因此张量的每个分片都位于其指定的gpu上,在处理过程中,每个分片在不同的gpu上分别并行处理,结果在步骤结束时同步。
流水线并行:模型在多个gpu上垂直(即按量)拆分,因此只有一个或多个模型层放置在单个gpu上,每个gpu并行处理流水线的不同阶段,并处理batch的一部分数据。
潞晨科技成立于2021年,是一家致力于“解放ai生产力”的全球性公司。主要业务是通过打造分布式ai开发和部署平台,帮助企业降低大模型的落地成本,提升训练、推理效率。
潞晨开源的智能系统架构colossal-ai技术,有两大特性:一是最小化部署成本,colossal-ai 可以显著提高大规模ai模型训练和部署的效率。仅需在笔记本电脑上写一个简单的源代码,colossal-ai 便可自动部署到云端和超级计算机上。
通常训练大模型 (如gpt-3) 需要 100 多个gpu,而使用colossal-ai仅需一半的计算资源。即使在低端硬件条件下,colossal-ai也可以训练2-3倍的大模型。
二是最大化计算效率,在并行计算技术支持下,colossal-ai在硬件上训练ai模型,性能显著提高。潞晨开源的目标是提升训练ai大模型速度10倍以上。
小结
如今,全球众多科技企业都在研究大模型,然而大模型的训练和部署对硬件也有极高的要求,高昂的硬件需求和训练成本是当前亟待解决的问题。可见,除了openai、谷歌、百度、阿里等致力于大模型研究企业,以及英伟达等提供硬件的企业之外,潞晨科技这类提供微调,致力于提升大模型训练和部署效率、降低成本的企业,也值得关注。
骁龙855移动平台将正式开启5G手机的移动体验时代
5G技术助力打造全面智慧城市
富士康将在中国开设1万家消费电子零售店
四大方案解决变频器仪表信号乱跳的问题
水泥储能电站远程监控智慧运维系统
大模型训练和部署的关键技术
初学者适用!基于Arduino开发板控制SG90伺服电机方案
你不知道的钝化接触太阳能电池
蓝牙耳机哪种好 不伤耳朵,为什么建议不要买入耳式的耳机
PCB抄板之PROTEL到ALLEGRO的转换技术1
编程变得简单:在代码生成中利用自动化机器人的力量
情人节礼物?红米Note4X登陆小米官网
华为畅享10开启首销:4800万超清夜景+超长续航,这价格心动了
5G对物联网的推动作用有多大
浦桑尼克790T家用全自动扫地机器人怎么样
人工智能疾病管理平台辅助中国1000万心衰患者把疾病“管起来”
如何利用电压检查法快速查找集成电路故障点
苹果恢复大师软件教程:苹果手机通讯录怎么恢复
整个经济中AI的部署正在改变我们的工作方式
全集成同步升压转换器AH6910的主要特性和应用领域