Meituan(美団)は、新たな大規模言語モデル「LongCat-Flash」を正式に発表し、オープンソースとして公開した。総パラメータは5600億に達するが、MoE(Mixture of Experts)設計を採用し、平均約270億パラメータのみを動的に活性化させる仕組みにより、計算効率を大幅に改善した。さらに、ScMoE(Shortcut-MoE)構造や多頭潜在注意(MLA)を導入することで通信コストを抑制しつつ、高スループット推論を実現し、毎秒100トークン以上の処理速度を可能にしている。
性能面では、LongCat-Flashは非思考型の基盤モデルでありながら、主要なベンチマークにおいてDeepSeek v3.1やQwen3を上回り、特にAgenticタスクで新たなSOTAを樹立した。訓練においては、超パラメータ移植や段階的モデル拡張、安定性向上の仕組みを組み合わせ、数万規模のアクセラレータ環境でも安定した学習を実現。最大128kの長文コンテキスト処理に対応し、多段階の後訓練により高度なエージェント行動を獲得している。
LongCat-FlashはすでにHugging Faceで試用可能であり、技術レポートやソースコードも公開されている。Meituan(美団)は本モデルを通じ、エージェント応用に最適化された効率的AIの新標準を提示したと言える。