Microsoft⁠コンパクトな言語モデルPhi-3シリーズを発表 ―スマートフォン上でローカルに実行可能なモデルも

Microsoftは2024年4月23日、高機能でコスト効率の高い小型言語モデル(SLM)⁠Phi-3」シリーズを発表した。このうち38億パラメータの言語モデルである「Phi-3-mini」Microsoft Azure AI StudioHugging Face、およびOllamaから利用可能となっている。

「Phi-3-mini」とともに、⁠Phi-3」シリーズとしてより高性能な「Phi-3-small」「Phi-3-medium」の2つのモデルも発表された。これらは今後数週間で利用可能となる。Phi-3-smallは70億パラメータ,Phi-3-mediumは140億パラメータをもつ。

Phi-3モデルは、主要なベンチマークにおいて、同じパラメータサイズおよびより大きなサイズの言語モデルよりも大幅に優れたパフォーマンスをもつという。同社のテストによると、Phi-3-miniはその2倍のサイズのモデルよりも優れたパフォーマンスを発揮し、Phi-3-smallとPhi-3-mediumはGPT-3.5Tなどのはるかに大きなモデルよりも優れたパフォーマンスを達成したという。

スマートフォンでローカルに実行できるPhi-3-mini

4月22日に発表された論文によると、Phi-3-miniは携帯電話上でローカルに実行可能で、サイズが小さいため4ビットに量子化でき、占有するメモリは1.8GB程度となる。A16 Bionicチップを搭載したiPhone 14にPhi-3-miniをデプロイして量子化モデルをテストしたところ、デバイス上でネイティブに実行され、完全にオフラインで1秒あたり12トークン以上を達成した。

A16 Bionicチップを搭載したiPhone上でネイティブに動作する4ビット量子化されたPhi-3-miniのデモの様子。1秒あたり12以上のトークンを生成する。
A16 Bionicチップを搭載したiPhone上でネイティブに動作する4ビット量子化されたPhi-3-miniのデモの様子

なおPhi-3モデルはより大きなモデルと同様のレベルの言語理解と推論能力をもつが、モデルサイズが小さくなると事実を保持する容量が少なくなるため、たとえばTriviaQAなどではパフォーマンスが低くなってしまう。しかしこのような弱点は検索エンジンを活用することで解決できるという。もう1つの弱点は、言語を主に英語に制限している点である。小規模言語モデルの多言語機能の実現を図るのは次のステップで検討するとのこと。

おすすめ記事

記事・ニュース一覧