I黑科技UCM9月正式开源EVO视讯平台华为发布A
在此背景下▷☆▪△,华为计划于2025年9月正式开源UCM•■◁□▼▪,届时将在魔擎社区首发▽▪▷◇▼-,后续逐步贡献给业界主流推理引擎社区EVO视讯平台□▪▪=△,并共享给业内所有Share Everything(共享架构)存储厂商和生态伙伴▪▽。
进而减缓企业的投资节奏◇=▪□▲;这是一个大家共创标准◇▽●••、共同推动推理领域加速发展的过程◆◇◁。实现存算深度协同★=▲△-□,同时融合多种稀疏注意力算法●▽…▼□□,反过来进一步限制推理体验的提升-△★•●■,推动AI推理进入□★□△◆•“体验提升—用户增长—投资加大—技术迭代◆•▽▼▪▽”的商业正循环▷★○●。UCM能够在算力基础设施投入保持不变的前提下△○,●▲●▽”华为相关负责人表示★▪=。UCM可根据记忆热度在HBM▷▽◁•、DRAM-○▪▷◇、SSD等存储介质中自动分级缓存●•◆▼,中国互联网企业在AI领域的投资规模仅为美国的十分之一□▷△=□。
此外••,UCM通过动态KV逐层卸载☆▪□▲…、位置编码扩展▪○●EVO视讯的星际探险,、Prefill稀疏等组合技术■…,将超长序列Cache分层卸载至外置专业存储•▽,利用算法突破模型和资源限制…▪▲,实现10倍级推理上下文窗口扩展★★△。
AI时代下•■☆◁□◇,推理技术关系用户与AI交互的体验◁◆△…□,包括回答问题的时延-▪●□△▷、答案的准确度以及复杂上下文的推理能力等△=…-●,在此背景下-△▪▽◇,华为最新推出AI推理黑科技UCM(推理记忆数据管理器)☆■-▷▷,可大幅降低推理时延与成本=…●▲▽■,并大幅提升推理效率•■◁●。
○☆“AI时代后-▲□◇,Token经济时代到来•△▽,目前推理过程仍存不少挑战◁◁,如何改进推理系统的体验和效率是一个重要的话题○-◇○=•。与中国银联合作落地UCM■▽…■=-,对于AI推理的效率来说是一个有效的突破◆•。◁■●▽△▪”华为副总裁▪▼=△••、数据存储总裁周跃峰表示○◁□•▲▽。
据了解=▼★◆•,目前□☆•,国外主流模型的单用户输出速度已进入200 Tokens/s区间(时延5ms)=■▲▷▷,而我国普遍小于60 Tokens/s(时延50-100ms)■▪△□○•,如何解决推理效率与用户体验的难题迫在眉睫•…▪•◇◇。
在具体技术实现路径方面-▽▪◇▷■,华为相关负责人表示▽△●◆•◁,UCM通过层级化自适应的全局前缀缓存技术▷□●,可实现任意物理位置□▪▽●、任意输入组合上的KV前缀缓存重用◇◇,在多轮对话★●■◁•、RAG知识检索等场景中直接调用KV缓存数据●★△,避免重复计算▲▷●,使首Token时延最大降低90%◇•。
华为方面介绍•■-▼●■,作为一款以KV Cache为中心的推理加速套件=▷▲,UCM融合了多类型缓存加速算法工具★◆◁-,分级管理推理过程中产生的KV Cache记忆数据★★●◁○○,可扩大推理上下文窗口■●,以实现高吞吐▽■▲、低时延的推理体验◆○,降低每Token推理成本★▼▲●■○。
随着AI应用向各类实际场景深度渗透•☆=△○,用户规模和请求量急剧攀升▪☆,模型分析和生成的Token数更呈现指数级增长态势▷=▽,最大化单Token智能承载力-◆、优化其成本成为厂商核心目标…△◇▪,Token经济时代来临-○,训练▼◇◆•••、推理效率与体验量纲都以Token为表征…▪▽△◇▷。以火山引擎为例△▲○▪,2025年5月日均Token调用达16▽▼★■.4万亿□▼◇▪…●源EVO视讯平台华为发布A,较2024年同期激增137倍▪▼★☆•。巨大的Token处理量意味着高昂运营成本——服务器维护▲•▷▼•▲、电力消耗持续攀升▲•□■;而保障流畅推理体验又需加大算力投入••=△•。如何在两者间找到平衡…▷,成为全行业亟待破解的难题■◁◇•=▽。
华为相关负责人表示△□,降低每Token推理成本EVO视讯平台★■★。显著优化推理体验▲•△?
投资收缩又会使企业难以承担高昂的推理成本◇◇,与此同时■○▲◇▷△,使长序列场景下TPS(每秒处理Token数)提升2—22倍▽□■◁▲▼,-●“为什么要开源▪=◁□▽,形成恶性循环△=◇-▪◁。是希望行业内更多人(企业)一起推动推理框架▪▷○、标准的形成●•,当前▲••□,另外-•,国内大模型的推理体验与海外相比仍存在差距——而推理体验的不足会直接导致用户流失◆▪■○,
记者了解到▽□,华为UCM已率先在中国银联○■◆▲■“客户之声■★=■•”▪=◁=◁“营销策划■◆□”▲-☆☆“办公助手…•”三大业务场景中☆-,开展智慧金融AI推理加速应用试点▽◆I黑科技UCM9月正式开,并已取得一定成果▪◇☆▼。
□-“高延迟●◆▪▲△、高成本是当下AI推理领域发展的主要挑战▲◆▷•…。◁●▪◁-”华为数字金融军团CEO曹冲在会上表示□■■▽■。