Phi-3とは
Phi-3は、Microsoftが開発したコンパクトなSLM(Small Language Model)シリーズです。3.8B~14Bパラメータという小型ながら、大規模モデルに匹敵する性能を持ち、Copilot+ PCのNPU上で高速動作します。プライバシーを保護しながら、ローカルでAI会話や文章生成が可能です。
Phi-3シリーズ
Phi-3-mini(3.8Bパラメータ)
- 最軽量:スマートフォンでも動作可能
- メモリ:4-8GB RAM
- 用途:簡単な質問応答、文章要約、コード補完
- 速度:最高速(NPU上で秒間30トークン以上)
Phi-3-small(7Bパラメータ)
- バランス型:性能と速度の最適バランス
- メモリ:16GB RAM推奨
- 用途:詳細な質問応答、翻訳、文章生成
- Copilot+ PC推奨:NPU 40 TOPS以上
Phi-3-medium(14Bパラメータ)
- 最高性能:SLMの中でトップクラスの精度
- メモリ:32GB RAM推奨
- 用途:複雑な推論、長文生成、専門的なタスク
- 推奨:NPU 50 TOPS + GPU併用
Phi-3の特徴
高品質な学習データ
- 厳選された高品質データで学習
- 教科書レベルの正確性
- 論理的思考能力が高い
コンテキスト長
- Phi-3-mini:128Kトークン(約10万語)
- Phi-3-small/medium:128Kトークン
- 長いドキュメントの処理が可能
多言語対応
- 日本語、英語、中国語など主要言語対応
- 多言語での質問応答・翻訳が可能
Copilot+ PCでの実行方法
Ollamaでの実行
# Phi-3-miniをダウンロード・実行
ollama run phi3
# チャット開始
>>> こんにちは、Phi-3です。何をお手伝いしましょうか?
ONNX Runtimeでの実行
DirectML経由でNPUを活用し、最高のパフォーマンスを実現:
import onnxruntime as ort
# NPUを使用してPhi-3を実行
providers = ['DmlExecutionProvider']
session = ort.InferenceSession('phi3-mini.onnx', providers=providers)
まとめ
Phi-3は、MicrosoftのコンパクトなSLMで、Copilot+ PCのNPU上で高速動作します。小型ながら高品質な応答が可能で、プライバシーを重視するユーザーや、オフラインでAI機能を使いたいユーザーに最適です。特にPhi-3-miniは、16GB RAMのPCでも快適に動作する実用的なモデルです。
