<汇港通讯> 据内地媒体报道,美团(03690)开源了「龙猫」大模型(LongCat-Flash),性能上亦追平了 DeepSeek V3.1 等模型。龙猫是一个拥有5600亿参数的混合专家(MoE)模型,最创新是其「零计算」专家机制,即模型可判断输入内容中不同部份的重要性,并将计算量较小任务分配给「零计算」专家,从而令模型处理每个词元(token)时,仅需动态启动186亿至313亿参数,实现性能与效率的平衡。 (BC)
#美团 #龙猫 #DeepSeek V3.1
新闻来源 (不包括新闻图片): 汇港资讯