508 盘古大模型发布。
  他按了一下遥控器,身后的屏幕出现了一张对比表格。
  “盘古大模型,总参数量两万亿,激活参数量三千亿。对比目前业內公开的最强模型,我们在这个数字上是它的1.8倍。”
  全场譁然。
  有人低声说了一句“两万亿”,声音不大,但周围的人都听到了。两万亿参数,不是ppt上隨便写的数字,是真实落地的规模。
  陈凯继续往下翻。“上下文长度——一百万字。什么概念?一次性读完《三体》三部曲,还有其他。你们可以拿市面上任何模型来比,不管是海外的还是国內的,盘古的上下文窗口最长。”
  掌声开始密集起来。
  “多模態能力。”屏幕切换,展示了一段视频,“盘古同时理解文本、图像、视频、音频、代码。不是简单的拼接,是真正跨模態的语义对齐。”视频中,一个用户上传了一张手绘的草图——歪歪扭扭的桌子上面画了一个圆,写著“放灯”。盘古在零点三秒內识別出了意图,输出了完整的產品设计说明和3d建模参数。
  台下有人轻声骂了一句脏话,不是愤怒,是震撼。
  陈凯没有给他们消化时间,继续拋出核心数据。“推理速度——盘古生成一千个tokens只需要零点三秒。比市面上最快的模型快三倍以上。训练成本——行业內训练一个万亿级別的大模型,成本普遍在一亿美元左右。盘古將这个数字压到了二十分之一。”
  全场安静了。不是不震惊,是震惊到说不出话。
  有人低头疯狂敲键盘发消息,有人打开手机录音,有人张大嘴巴看著屏幕上那个冷冰冰的数字不敢置信。
  陈凯放下遥控器,双手撑在演讲台上,声音从激昂转为平静。
  “做到这些,靠的不是魔法,是工程。是我们在模型架构上的创新——混合专家模型加稀疏注意力机制。是我们在训练框架上的突破——万卡集群线性加速。是我们在数据上的积累——高质量多语言语料的清洗和配比。”
  他直起身,环顾全场。
  “盘古不是追赶者。它不是华夏的gpt,不是华夏的gemini。它就是盘古。世界第一个两万亿参数的商用大模型。”