本文分享自华为云社区《降低大模型推理87%时延!华为云论文入选顶会USENIX ATC’24》,作者:华为云头条。
近日,计算机系统领域顶会USENIX ATC 2024在美国加州圣克拉拉召开,华为云EMS团队的论文《Cost-Efficient Large Language Model Serving for Multi-turn Conversations with CachedAttention》被该顶会收录!
CachedAttention论文提出全球首个面向大模型推理的多级KV Cache缓存系统,称作AttentionStore,基于AttentionStore实现了大模型推理过程中的KV Cache复用,降低了高达87%的首Token时延(TTFT, Time to First Token)。
USENIX ATC (Annual Technical Conference) 会议创办于1992年,距今有32年的历史,是由美国高等计算系统协会 (USENIX) 组织的聚焦计算机系统领域的顶级国际会议。2024年的USENIX ATC会议收到488篇投稿,录用77篇,录用率仅15.8%。
CachedAttention论文介绍
通过多轮对话与人类互动是大型语言模型(LLM)的一个基本特征。然而,现有的LLM服务引擎执行多轮对话时,需要反复计算历史Token的Key-Value (KV) Cache,从而导致效率低下,产生高昂的推理服务成本。
为了解决这个问题,本论文提出了CachedAttention,一种新的注意力机制允许在多轮对话中重用KV Cache,显著减少重复计算开销从而提升推理性能。
- CachedAttention维护一个分层的KV Cache存储系统(称作AttentionStore),利用经济高效的DRAM和SSD介质来保存请求的KV Cache。具体而言,为了减少从慢速介质上访问KV Cache的开销,CachedAttention采用了分层预加载和异步保存方法将KV Cache访问与NPU计算重叠。
- 其次,为了确保要访问的KV Cache总是放置在最快的存储层次,CachedAttention采用了一个调度程序感知的Fetch和Evict方法,有意识地根据推理作业调度程序的提示,在不同层中进行KV Cache的放置。
- 最后,为了避免由于LLM上下文窗口溢出而导致保存的KV Cache失效,CachedAttention通过解耦位置编码并有效截断KV Cache,使保存的KV Cache依然有效。
大量的实验结果表明,CachedAttention降低了高达87%的大模型推理的首Token时延 (TTFT) ,提升了Prefill阶段7.8倍的吞吐量,从而大幅降低端到端推理成本。
▲基于EMS-AttentionStore构建的CachedAttention系统架构图
CachedAttention论文信息:Bin Gao, Zhuomin He, Puru Sharma, Qingxuan Kang, Djordje Jevdjic, Junbo Deng, Xingkun Yang, Zhou Yu, Pengfei Zuo, “Cost-Efficient Large Language Model Serving for Multi-turn Conversations with CachedAttention”, in Proceedings of the 2024 USENIX Annual Technical Conference (USENIX ATC), 2024.
华为云AI-Native智算存储解决方案介绍
华为云EMS弹性内存存储服务是业界云厂商中首个在实际场景中得到使用的内存存储服务,通过Memory Pooling专利技术实现了“显存扩展”、“算力卸载”、“以存代算”三大功能来打破内存墙。
不仅如此,面向整个AI场景,华为云还形成了EMS弹性内存存储+SFS Turbo弹性文件存储+OBS对象存储的AI-Native智算存储解决方案,实现万亿模型存的下,训练任务恢复快,海量数据存的起,全面引领AI时代数据存储变革,帮助客户构建AI Native的基础设施。
▲HDC 2024上华为云发布EMS弹性内存存储服务
1.本站内容仅供参考,不作为任何法律依据。用户在使用本站内容时,应自行判断其真实性、准确性和完整性,并承担相应风险。
2.本站部分内容来源于互联网,仅用于交流学习研究知识,若侵犯了您的合法权益,请及时邮件或站内私信与本站联系,我们将尽快予以处理。
3.本文采用知识共享 署名4.0国际许可协议 [BY-NC-SA] 进行授权
4.根据《计算机软件保护条例》第十七条规定“为了学习和研究软件内含的设计思想和原理,通过安装、显示、传输或者存储软件等方式使用软件的,可以不经软件著作权人许可,不向其支付报酬。”您需知晓本站所有内容资源均来源于网络,仅供用户交流学习与研究使用,版权归属原版权方所有,版权争议与本站无关,用户本人下载后不能用作商业或非法用途,需在24个小时之内从您的电脑中彻底删除上述内容,否则后果均由用户承担责任;如果您访问和下载此文件,表示您同意只将此文件用于参考、学习而非其他用途,否则一切后果请您自行承担,如果您喜欢该程序,请支持正版软件,购买注册,得到更好的正版服务。
5.本站是非经营性个人站点,所有软件信息均来自网络,所有资源仅供学习参考研究目的,并不贩卖软件,不存在任何商业目的及用途
暂无评论内容