5月18日,由天津大学主办,嘉御资本、北洋海棠基金、天津大学科技园、天津大学宣怀学院、创业知本社承办,天津天开发展集团有限公司作为支持单位的“天开智启,AI点燃新引擎”论坛在天津举行。该论坛聚焦智能机器人、大模型等人工智能最前沿领域,旨在探讨人工智能未来发展方向及应用场景,助力科研成果从实验室走向市场。行云集成电路创始人兼CEO季宇在活动期间接受新华网专访,分享了其在AI基础设施领域的创新理念与实践成果。
行云集成电路创始人季宇
季宇认为,当前企业在落地以DeepSeek为代表的大模型应用时,普遍面临部署成本高昂的难题。为解决这一痛点,行云集成电路提出了一种创新的GPU架构设计——以内存为中心,将GPU与超大容量显存深度结合,并确保高带宽互联。这一设计旨在将本地部署成本从百万级降至十万级,推动AI从“技术试验”迈向“规模化落地”。
左侧为行云团队部署环境下 DeepSeek的推理速度,右侧为 DeepSeek官网的推理速度
“我们的创新架构GPU以内存为核心,能够在一两个GPU上完整装下大型模型,同时保持高速运行和高计算利用率,且成本足够低廉。”季宇解释道。为了验证这一理念,行云团队利用现成硬件搭建了原型系统:采用双路服务器级CPU、24根DDR内存条及一张消费级显卡,总成本控制在10万元以内。这一方案将传统超算服务器的部署成本直接压缩至原来的十分之一。
该方案不仅适用于边缘端的小规模部署,还可在云端通过堆叠平价硬件构建高性价比的大模型推理集群。季宇形象地比喻:“就像20世纪80年代PC取代大型机一样,我们希望让大模型推理变得人人可用。”
行云自研芯片预计将于2026年正式推出。该芯片将在保持大容量显存和高带宽的基础上,进一步降低功耗和单位成本,是加速AI基础设施普惠化进程、推动部署成本从“十万档”向“万元档”迈进的关键步骤。
在商业模式上,行云聚焦底层芯片供给,致力于打造普惠AI基础设施。季宇表示:“我们不担心竞争,反而欢迎更多同行加入,共同推动行业发展。我们希望企业认识到,运行高质量模型无需依赖昂贵的超算设备,普通PC或工作站同样可以胜任。”
季宇强调,硬件成本的指数级下降将显著拓宽AI应用边界,使中小企业和更多行业具备“可用”“敢用”的能力,推动AI从“科研利器”转变为“随处可用”的生产力工具。(杨登媛)