中国バイドゥの産業用深層学習フレームワーク「PaddlePaddle(飛槳)」の最新バージョン3.0が正式に公開された。中国初の国産フレームワークとして注目されてきた本製品は、今回のアップデートにより、大規模モデル(LLM)の訓練・推論の効率化、高度な科学計算機能、神経ネットワーク向けコンパイル技術、異種チップへの柔軟な対応力といったフルスタックの強化が図られている。
「PaddlePaddle(飛槳)」3.0では、少量の設定で分散処理が可能な「動静統一自動並列」技術を導入し、Llamaなどの大規模モデルにおける訓練コードの80%削減を実現。さらに、訓練と推論を同一コードベースで行える「訓推一体」設計により、効率的な産業実装が可能になった。DeepSeek R1においては単機での推論性能が倍増し、費用対効果にも貢献している。
科学計算分野でも、「高次自動微分」や傅里葉変換、複素数計算といった機能を搭載。微分方程式の解法においてはPyTorchの約2.6倍の速度を記録し、航空宇宙や生命科学など幅広い分野での活用が見込まれる。
「神経ネットワークコンパイラCINN」は、Pythonコードよりも最大4倍高速な演算処理を実現し、柔軟性と高性能の両立を実現。さらに、60種類以上のモデルにおいて平均27.4%の訓練速度向上を達成した。
チップ対応面では、異なるAIチップ間の差異を吸収する標準化インターフェースを導入。1つのコードで複数のチップ上での動作を実現できるようになり、開発者にとっての負担を軽減。バイドゥは既に40社以上と連携し、60種類を超えるチップへの適応を完了している。
PaddlePaddle(飛槳)3.0は「単機コードを書く感覚で分散処理が可能」「数式を書くようにPythonでニューラルネットを記述できる」開発体験を提供し、AIの研究・産業応用の両面で新たな基盤となり得る存在へと進化している。