首页 小说推荐 实时讯息 百科知识 范文大全 经典语录
您的位置: 首页 > 实时讯息 >

无问芯穹首席解决方案架构师刘川林:深耕算力沃土,打造跨时代超级APP | 2025 AI Partner大会

0次浏览     发布时间:2025-04-25 14:08:00    

2025年是AI应用爆发的元年,当全球AI竞赛步入“中国时刻”,一场深刻的技术变革正悄然改写产业格局。在此关键节点,行业面临核心命题:如何跨越AI技术到规模化应用的鸿沟?下一个颠覆性的AI超级应用将诞生于何处?

4月18日,由36氪主办的2025 AI Partner大会于上海模速空间盛大启幕。本次大会以“Super APP来了”为主题,聚焦AI应用对千行百业的颠覆性变革。大会分为“Super App来了”和“谁是下一个超级应用”两大篇章,覆盖“在AI世界中长大”“2025卷AI就卷超级应用”等七大话题,涵盖10+场主题演讲、3场圆桌对话与两大优秀AI案例企业名册发布环节,深度剖析AI技术如何重构商业逻辑、重塑产业格局,探索AI超级应用带来的无限可能。

当日,无问芯穹首席解决方案架构师刘川林带来了《以智能底座重构AI产业生态》的主题分享。

以下为刘川林演讲内容,经36氪整理编辑:

各位领导、嘉宾,下午好!非常荣幸受邀参与 36 氪的活动。作为专注支撑 AI 超级应用的AI算力运营商与基础设施建造者,无问芯穹的技术能力覆盖从算力优化、模型开发到算法调优的全链条,致力于为中国 AI 市场构建坚实的技术底座,助力更多创新应用破局而生。

无问芯穹首席解决方案架构师刘川林

今天的分享将围绕三个核心展开:第一块Infra 层的趋势变革:探讨模型开发、训练、推理环节的技术演进;第二块无问芯穹的实践路径:解析我们如何通过技术创新培育 AI 超级应用的生长土壤;第三块未来展望:挖掘行业需求,推动跨时代 AI 原生应用的诞生。

回顾人工智能的发展历程,每一次重大突破都源于关键要素的升级。自GPT-3横空出世以来,在Scaling Law作用下,算法和算力都得到了空前的发展,而随着公开可用的优质文本数据逐渐耗尽,Ilya就曾在去年预言,预训练时代即将结束。

以GPT系列为例,从GPT-4到GPT-5的迭代周期显著拉长,预训练数据的稀缺性愈发凸显。而DeepSeek的出现,带来了全新的技术范式——通过R1强化学习,将训练、推理、对齐形成闭环,实现模型性能的二次飞跃。其技术路径可概括为:冷启动阶段:基于R1 Zero模型,结合Reward Model和对齐算法完成初步强化;数据优化阶段:融入优质行业数据与通用数据集,提升模型泛化能力;闭环迭代:通过 “训练 - 推理 - 对齐 - 再训练” 的循环,持续优化模型表现。

这一变革对 Infra 提出了双重挑战:底层支撑:需构建适配强化学习的AI Infra系统,满足大模型开发需求;应用赋能:通过Infra优化,帮助AI应用实现更低延迟、更高效率、更优成本,提升商业价(ROI)。

作为清华电子系孵化的企业,我们依托软硬件联合优化技术实力,构建了贯穿上下游的技术生态:算力层:融合多家国产芯片,通过异构计算提供多样化算力支持;平台层(PaaS):打造高效易用的算力管理平台,提升资源调度效率;服务层(MaaS):提供稳定的模型即服务,降低应用开发门槛。

在云端服务中,我们坚持“三位一体”策略:多元异构适配:兼容不同架构芯片,保障算力弹性供给;软硬协同优化:深度整合硬件与软件,释放算力潜能;服务效能提升:通过智能化调度,确保资源高效利用。

受中美技术博弈与国产芯片崛起的影响,未来3年,国产芯片将成为大模型训练与推理的重要载体。为此,我们在上海等地落地千卡级异构混训任务,攻克国产芯片兼容性难题,构建“国产算力 + 国产应用”的完整生态。通过统一调度框架,实现不同芯片间的协同计算,显著提升训练效率。

针对 DeepSeek 引发的计算范式变革,我们从三个维度优化工程架构:训练框架创新:自研适配 LLM(语言模型)、MOE(混合专家模型)的训练框架,支持更高性能训练,并兼容多类型加速卡;通信效率优化:通过计算与通信的深度重叠,减少数据传输延迟,在 MOE 模型训练中降低资源占用;动态资源分配:基于MOE模型特性,实现专家模型的智能调度与PD 分离,提升整体架构灵活性。

以生数科技为例,我们为其多模态模型训练提供一站式服务:环境秒级启动:快速部署训练环境,缩短项目周期;自动化容错:实时监控训练过程,自动处理异常情况;推理效率优化:通过底层加速,提升模型部署后的响应速度。

目前,我们已在上海模速空间落地算力生态服务平台,并在浙江省打造政企合作标杆项目,通过技术支持,降低AI企业的创新成本。

在AI应用场景中,推理效率直接影响用户体验与商业价值。我们针对大语言模型与文生图模型,推出定制化解决方案:以DeepSeek R1为例,其MOE架构与FP8精度对部署资源要求极高。我们通过以下优化实现效率突破:工程化改造:重构服务框架,将推理速度提升至 30 Tokens / 秒;稳定性保障:优化调度算法,确保高并发场景下服务零中断;效果对齐:在加速同时保持与官方模型的生成精度一致。用户可通过我们的平台一键调用R1服务,大幅降低部署门槛。

针对AIGC应用的流量波动问题,我们基于 ComfyUI 构建接口化服务。削峰平谷:动态分配算力资源,避免流量低谷期的资源浪费;架构解耦:通过标准化接口兼容新模型与框架,减少工程团队重复开发;多模态支持:整合视频、语音、图文等多模态能力,实现全产业链无缝对接。实际案例显示,某电商生图企业采用我们的服务后,降低了成本,提升了推理速度,并且提升服务效能。

AI 技术的快速迭代中,唯有把握“变”与“不变”的平衡,方能抢占先机:变:技术架构、计算范式、模型形态持续演进;不变:用户对高效、智能、个性化服务的核心需求始终存在。

我们期待与各行业专家深入交流,挖掘真实场景需求,共同推动 AI 原生应用的创新突破。正如今天分享的嘉宾们所展现的,无论是电商商拍、教育赋能还是具身智能,每一个细分领域都蕴藏着诞生超级应用的潜力。我们愿以算力基础设施为舟,与合作伙伴携手,驶向 AI 产业的深水区,打造跨时代的AI原生APP。

网站内容来自网络,如有侵权请联系我们,立即删除!
Copyright © 老铁文章网 琼ICP备2023010660号-15