478 盘古大模型发布。-《刷抖音爆奖励,开局一辆法拉利》


    第(2/3)页

    台下有人轻声骂了一句脏话,不是愤怒,是震撼。

    陈凯没有给他们消化时间,继续抛出核心数据。“推理速度——盘古生成一千个tOkenS只需要零点三秒。比市面上最快的模型快三倍以上。训练成本——行业内训练一个万亿级别的大模型,成本普遍在一亿美元左右。盘古将这个数字压到了二十分之一。”

    全场安静了。不是不震惊,是震惊到说不出话。

    有人低头疯狂敲键盘发消息,有人打开手机录音,有人张大嘴巴看着屏幕上那个冷冰冰的数字不敢置信。

    陈凯放下遥控器,双手撑在演讲台上,声音从激昂转为平静。

    “做到这些,靠的不是魔法,是工程。是我们在模型架构上的创新——混合专家模型加稀疏注意力机制。是我们在训练框架上的突破——万卡集群线性加速。是我们在数据上的积累——高质量多语言语料的清洗和配比。”

    他直起身,环顾全场。

    “盘古不是追赶者。它不是华夏的GPT,不是华夏的Gemini。它就是盘古。世界第一个两万亿参数的商用大模型。”

    掌声终于爆发了,如潮水般涌来,持续了整整三十秒。陈凯没有制止,他站在那里,听着掌声,眼眶微红。

    当掌声平息,陈凯举起手:“下面,请盘古大模型进行现场演示。”

    直播信号切到了幻神AI的机房。一排排服务器,蓝光闪烁,像一座数字宫殿。屏幕上开始接收观众的实时提问。

    第一个问题来自新浪微博的精选评论:“盘古能写代码吗?写一个贪吃蛇游戏。”

    盘古的界面亮起。代码从屏幕顶端刷刷地往下滚,不到三秒,完整的HTML、CSS、JavaSCript代码呈现在屏幕上。演示人员复制代码到浏览器中打开,一个可玩的贪吃蛇游戏已经跑了起来。

    第二个问题来自B站弹幕:“盘古懂不懂哲学?解释一下‘我是谁、我从哪来、要到哪去’。”

    盘古沉默了零点五秒,给出了这样一段回答:“从生物层面,我是碳基生命;从信息层面,我是意识流的集合。我从宇宙大爆炸的粒子中来,经过一百三十八亿年的演化,偶然组合成了能够自省的存在。我要到未知中去,因为终点不在已知的范围内。这是人类目前能给出的最好的答案。”

    全场再次掌声。不是因为它给出了“正确答案”,而是因为它展现出了逻辑和思辨能力。

    第三个问题来自海外媒体记者:“盘古和现有的大模型相比,优势在哪里?请客观回答,不贬低同行。”盘古的回答不紧不慢:“优势有三:第一,参数规模领先,能记住和处理的信息更多。第二,推理速度快,单位时间能完成的任务更多。第三,成本低,使用门槛更低。这些差异来源于工程和架构创新。”

    客观、精准,没有一句废话。

    第四个问题来自直播间弹幕:“能不能用盘古写一首关于盘古开天的诗?”盘古这一次停顿得稍久一些,输出了一首现代风格的诗,最后两句被反复转发:“你劈开的不是混沌,是旧思维的枷锁。你撑开的不是天地,是华夏AI的苍穹。”

    陈凯站在台上,示意演示暂停。“盘古的能力,刚才的演示只展现了冰山一角。它可以做代码助手,帮助开发者从需求文档生成完整项目;它可以做教育辅导,从知识点讲解到习题批改全自动;它可以做金融分析,从财报解读到风险预警智能化;它可以做医疗咨询,从症状描述到就医建议结构化。盘古不在于能回答多少问题,在于它能接入多少行业、改变多少场景。”

    PPT切换到商业模式页。陈凯公布了盘古大模型的服务定价——盘古Lite版免费开放,支持个人开发者,每天一千次调用额度。盘古PrO版按tOkenS收费,定价为行业主流价格的三分之一。盘古EnterpriSe版私有化部署,面向政府和企业客户,按年授权。“我们不烧钱换市场,我们靠技术降低成本。盘古的优势不是补贴,是效率。”
    第(2/3)页