当前位置: 首页 > news >正文

免费做网站站标app网络推广公司

免费做网站站标,app网络推广公司,优化营商环境的措施建议,企业数字化平台语言建模作为语言模型(LMs)的基本功能,涉及对单词序列的建模以及预测后续单词的分布。 近年来,研究人员发现,扩大语言模型的规模不仅增强了它们的语言建模能力,而且还产生了处理传统NLP任务之外更复杂任务…

语言建模作为语言模型(LMs)的基本功能,涉及对单词序列的建模以及预测后续单词的分布。

近年来,研究人员发现,扩大语言模型的规模不仅增强了它们的语言建模能力,而且还产生了处理传统NLP任务之外更复杂任务的新兴能力。

这些扩大规模的语言模型被称为大型语言模型(LLMs)。

主流的LLMs基于Transformer架构设计

具体来说,一个典型的Transformer架构由多个堆叠的Transformer块组成。

图片

通常,一个Transformer块由一个多头自注意力(MHSA)模块、一个前馈网络(FFN)和一个层归一化(LN)操作组成。

对于每个块,它接收前一个块的输出特征作为输入,并通过每个子模块传递特征以获得输出。

特别地,在第一个块之前,使用分词器将原始输入句子转换为一系列标记,随后的嵌入层用于将标记转换为输入特征。

然后,将额外的位置嵌入添加到输入特征中,以编码每个输入标记的顺序。

Transformer架构的核心概念是自注意力机制,它在MHSA模块中采用。具体来说,表示输入特征为X = [x1, x2, ..., xn],MHSA模块对它们进行线性投影并获得一组查询Q、键K和值V,如公式所示:

图片

其中WQi、WKi和WVi分别是第i个头的投影矩阵。

然后自注意力操作应用于每组(Qi, Ki, Vi)并得到第i个头的特征Zi,如公式所示:

图片

其中dk是查询(键)的维度。

注意,自注意力操作包含矩阵乘法操作,其计算复杂度是对输入长度的二次方。最后,MHSA模块将所有注意力头的特征连接起来,并通过线性投影形成其输出Z,如公式所示:

图片

其中WO是投影矩阵。

可以看到,自注意力机制允许模型识别不同输入部分的重要性,无论距离如何,并且可以捕捉输入句子中的长距离依赖和复杂关系。

Transformer块中的另一个重要模块是FFN。

通常,FFN位于MHSA模块之后,由两个带有非线性激活函数的线性变换层组成。它接收MHSA模块的输出特征X,如公式所示:

图片

其中W1和W2表示两个线性层的权重矩阵,σ(·)表示激活函数。

本文翻译自清华大学最新成果论文:《A Survey on Efficient Inference for Large Language Models 》,https://arxiv.org/pdf/2404.14294。


更多关于大语言模型的介绍,可以查看《Transformer最后一公里》专栏。

http://www.hengruixuexiao.com/news/30516.html

相关文章:

  • 营销型网站建设必备功能海口seo计费
  • 中英网站的设计nba排名最新赛程
  • 网站建设需要摊销多久如何创建一个网页
  • 网站建设推广关键词市场推广方式有哪几种
  • 旅游网站开发 结束语服务推广软文范例
  • 即时通讯软件星链seo管理
  • 郑州网站制作报价百度app官方下载安装
  • 手机网站制作教程视频教程济南新闻头条最新事件
  • 不想花钱怎么做网站关键词优化seo多少钱一年
  • wordpress 自动图片页面优化的方法
  • php如何做音乐网站网店推广的作用
  • 湖南网站建设推广廊坊seo排名公司
  • 网络教育网站如何做营销推广seo外包公司费用
  • 淘宝网站代理怎么做东莞今天最新消息新闻
  • uc官方网站开发中心2021年中国关键词
  • 17.zwd一起做网站池尾站下列哪些店铺适合交换友情链接
  • 郑州网站建设设计公司百度关键词排名原理
  • 百度竞价做网站建设百度如何添加店铺位置信息
  • 宁波企业网站推广效果好制作网站
  • b2b网站栏目建网站找哪个公司
  • 帝舵手表官方网站seo综合排名优化
  • 做网站可以不用框架吗本周国内重大新闻十条
  • 网站建设制作设计营销公司南宁少女长尾关键词挖掘
  • 手机网站注册高级seo是什么职位
  • 是做网站好还是做游戏好企业管理系统
  • 优质的集团网站建设微信公众号怎么开通
  • 西安做网站的公司怎么进行网站关键词优化
  • 江西省城乡和住房建设厅网站seo分析
  • 深圳网站建设李天亮新媒体营销
  • ps个人网站设计总结教程seo推广排名网站