近日,由深度学习技术及应用国家工程研究中心主办,百度飞桨、文心大模型联合承办的WAVE SUMMIT深度学习开发者大会2025在北京召开。会上,百度重磅发布文心大模型X1.1,并公布文心和飞桨的一系列技术、产品、生态最新成果。紫光恒越作为重要合作伙伴受邀参会,与各方嘉宾携手共赴这场AI技术盛宴,为AI生态建设注入多元力量。
大会现场
硬核展示:UNIS 银河大模型一体机引关注
现场“硬核便利店”区域,紫光恒越展示了自主研发的全国产化UNIS银河大模型一体机。该产品原生支持国产飞桨深度学习框架和国产文心大模型,以及其他主流大模型,实现全栈国产软硬件适配与安全保密增强,整体性能提升达50%,支持多机多卡算力调度、智能化数据处理、多智能体协同框架,受到与会者的广泛关注。
UNIS银河大模型一体机
圆桌共话AI:以多元生态与闭环实践,破解大模型落地关键命题
本次大会同步开设“软硬协同 模力无限”硬件分论坛,由中国信息通信研究院人工智能研究所软硬件与创新生态部主任李论担任主席。论坛汇聚了英特尔、天数智芯、沐曦、紫光恒越、容芯致远、浪潮信息等AI软硬件生态企业代表,各方共话人工智能软硬件协同创新的实践经验与发展趋势。
在圆桌对话中,紫光恒越AI应用研究院院长刘长虹围绕AI芯片选型与大模型应用阶段的用户核心关切展开深度分享。
紫光恒越AI应用研究院院长刘长虹分享观点
他提到,紫光恒越作为全栈软硬件原厂商,始终坚持多生态CPU、GPU技术路线——通过覆盖主流架构的多元布局,保障生态、技术、生产三重可控,为专业用户精准匹配最适配的芯片及大模型方案。
针对如何支撑大模型方案在用户业务侧的有效落地,刘长虹指出,当前用户对大模型的认知已从“概念验证”转向了“价值落地”,核心关注TMF(大模型的“能力边界”与“实现效果”),紫光恒越根据大量实践,已总结出“场景-技术-交付”闭环方法,分阶段验证、定制和迭代优化落地方案,确保大模型真正融入用户业务链路,切实赋能用户智能化转型。
未来紫光恒越将以百度飞桨、文心大模型为核心深化合作,重点推进国产硬件适配进程,建立框架兼容、性能调优等联合攻关机制。通过整合“百度AI能力+恒越国产软硬件+行业经验”,形成可复用的联合解决方案,加速大模型在专业领域的规模化应用。
此次大会为AI产业搭建了开放的创新平台。紫光恒越将持续强化软硬件协同创新能力,携手生态伙伴推动国产AI技术生态的成熟完善,为中国人工智能产业发展注入新动能。
A5创业网 版权所有