Meituan(美団)、5600億パラメータの大規模モデル「LongCat-Flash」をオープンソース公開──DeepSeek v3.1やQwen3を超えAgenticタスクで新SOTA

出典:https://mp.weixin.qq.com/s/1fSPywXsFCiM-GvcivAS7Q

Meituan LongCat-Flash
概要ポイント
  • Meituan(美団)が大規模MoEモデル「LongCat-Flash」をオープンソース公開。
  • 総パラメータ5600億、平均270億を動的活性化。
  • ScMoE設計とMLAで推論効率を最適化。
  • AgenticタスクでDeepSeek v3.1やQwen3を超える性能。
  • Hugging Faceなどで利用可能。
本文

Meituan(美団)は、新たな大規模言語モデル「LongCat-Flash」を正式に発表し、オープンソースとして公開した。総パラメータは5600億に達するが、MoE(Mixture of Experts)設計を採用し、平均約270億パラメータのみを動的に活性化させる仕組みにより、計算効率を大幅に改善した。さらに、ScMoE(Shortcut-MoE)構造や多頭潜在注意(MLA)を導入することで通信コストを抑制しつつ、高スループット推論を実現し、毎秒100トークン以上の処理速度を可能にしている。


性能面では、LongCat-Flashは非思考型の基盤モデルでありながら、主要なベンチマークにおいてDeepSeek v3.1やQwen3を上回り、特にAgenticタスクで新たなSOTAを樹立した。訓練においては、超パラメータ移植や段階的モデル拡張、安定性向上の仕組みを組み合わせ、数万規模のアクセラレータ環境でも安定した学習を実現。最大128kの長文コンテキスト処理に対応し、多段階の後訓練により高度なエージェント行動を獲得している。


LongCat-FlashはすでにHugging Faceで試用可能であり、技術レポートやソースコードも公開されている。Meituan(美団)は本モデルを通じ、エージェント応用に最適化された効率的AIの新標準を提示したと言える。