期刊文献+
共找到1篇文章
< 1 >
每页显示 20 50 100
Lite-IJformer:面向长序列Transformer的轻量化方法
1
作者 连家诚 郝一帆 +2 位作者 张曦珊 支天 孙广中 《高技术通讯》 北大核心 2025年第2期167-174,共8页
针对面向长序列的Transformer计算复杂度高的问题,本文提出了一种Trans-former轻量化方法Lite-IJformer。其核心思路分为2步:(1)对自注意力(self-attention)进行线性化,将Transformer的计算复杂度从输入序列的平方降至线性;(2)基于低秩... 针对面向长序列的Transformer计算复杂度高的问题,本文提出了一种Trans-former轻量化方法Lite-IJformer。其核心思路分为2步:(1)对自注意力(self-attention)进行线性化,将Transformer的计算复杂度从输入序列的平方降至线性;(2)基于低秩矩阵分解理论对KV矩阵乘法进行降维,进一步减少计算规模。在长序列竞技基准测试上的实验表明,当输入长度为1000~2000时,线性化可以将self-attention计算量降低13~26倍,将Transformer的推理速度提升4.75~5.72倍而无精度损失;在经过降维后,self-attention的计算量进一步减少了17.0%,模型推理速度提升了1.17倍,精度损失在0.5%以内。 展开更多
关键词 TRANSFORMER 自注意力 线性化方法 降维
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部