华为提出全新压缩算法:节省70%内存占用
原标题:华为提出全新压缩算法:节省70%内存占用
导读:
文木然编辑三元有一类题材曾经比古装剧和悬疑剧都更火爆谍战剧潜伏风筝等作品将这类题材推向热潮随后大量同类剧涌入市场月日消息华为算法团队在人工智能领域取得了显著突破他们研究并发表了...
文 | 木然 编辑 | 三元 有一类题材,曾经比古装剧和悬疑剧都更火爆-- 谍战剧。 《潜伏》,《风筝》等作品将这类题材推向热潮,随后大量同类剧涌入市场。 ....
1月24日消息,华为AI算法团队在人工智能领域取得了显著突破,他们研究并发表了一种创新的大模型KV Cache压缩算法,名为RazorAttention”。
这一算法具有卓越的性能,能够有效节省高达70%的大模型推理内存占用,为AI大模型的 运行提供了有力支持。
其论文《RazorAttention: Efficient KV Cache Compression Through Ret eval Heads》已被深度学习领域国际 会议ICLR 2025收录。
华为表示,此算法为业界首个基于Attention可解释性的离线静态KV Cache压缩算法,打破了过去AI大模型长序列KV Cache压缩不理想的现状。
该算法通过检索头的设置,确保上下文中重要且主要的信息不丢失,在保持高精度(误差小于1%)的情况下,静态有效压缩了最大到70%的KV Cache内存占用,可以为用户大大节约AI大模型推理的成本。
目前RazorAttention算法已产品化集成在昇腾MindIE/MindStudio,支持主流8K~1M长序列KV Cache压缩,32K以上场景增量吞吐提升20% 。
还没有评论,来说两句吧...