Llama 3.1ベースに日本語能力を強化した「Llama 3.1 Swallow」公開

2024年10月8日、東京科学大学の岡崎研究室と横田研究室、産業技術総合研究所の研究チームは、Llama 3.1の英語の能力を維持しながら日本語の能力を強化した大規模言語モデル「Llama 3.1 Swallow」を公開した。

Swallowプロジェクトは米Meta製のLLM、Llamaをベースとして日本語性能を強化したLLMを開発してきたが、Llama 3.1 Swallowはその最新版となる。公開されたのは8B、および70Bのモデルで、Llama 3.1ライセンスに従う限り研究や商業目的などで利用が可能。継続事前学習モデル(base)と指示チューニングを施した言語モデル(instruct)HuggingFace上で公開されているほか、NVIDIA NIM上でも試すことができる。

おすすめ記事

記事・ニュース一覧