Phi-3とは
Phi-3は、Microsoftが開発したコンパクトなSLM(Small Language Model)シリーズです。3.8B~14Bパラメータという小型ながら、大規模モデルに匹敵する性能を持ち、Copilot+ PCのNPU上で高速動作します。プライバシーを保護しながら、ローカルでAI会話や文章生成が可能です。
Phi-3シリーズ
Phi-3-mini(3.8Bパラメータ)
- 最軽量:スマートフォンでも動作可能
- メモリ:4-8GB RAM
- 用途:簡単な質問応答、文章要約、コード補完
- 速度:最高速(NPU上で秒間30トークン以上)
Phi-3-small(7Bパラメータ)
- バランス型:性能と速度の最適バランス
- メモリ:16GB RAM推奨
- 用途:詳細な質問応答、翻訳、文章生成
- Copilot+ PC推奨:NPU 40 TOPS以上
Phi-3-medium(14Bパラメータ)
- 最高性能:SLMの中でトップクラスの精度
- メモリ:32GB RAM推奨
- 用途:複雑な推論、長文生成、専門的なタスク
- 推奨:NPU 50 TOPS + GPU併用
Phi-3の特徴
高品質な学習データ
- 厳選された高品質データで学習
- 教科書レベルの正確性
- 論理的思考能力が高い
コンテキスト長
- Phi-3-mini:128Kトークン(約10万語)
- Phi-3-small/medium:128Kトークン
- 長いドキュメントの処理が可能
多言語対応
- 日本語、英語、中国語など主要言語対応
- 多言語での質問応答・翻訳が可能
Copilot+ PCでの実行方法
Ollamaでの実行
# Phi-3-miniをダウンロード・実行
ollama run phi3
# チャット開始
>>> こんにちは、Phi-3です。何をお手伝いしましょうか?
ONNX Runtimeでの実行
DirectML経由でNPUを活用し、最高のパフォーマンスを実現:
import onnxruntime as ort
# NPUを使用してPhi-3を実行
providers = ['DmlExecutionProvider']
session = ort.InferenceSession('phi3-mini.onnx', providers=providers)
Phi-4の最新情報(2024-2025年)
- Phi-4リリース(2024年12月):14Bパラメータで数学・推論能力が飛躍的向上
- Phi-4-mini(2025年):3.8Bと軽量ながら高性能なコンパクト版
- Phi-4 Multimodal(2025年):テキスト+画像対応のマルチモーダル版
- Windows AI Foundry統合:Copilot+ PCでワンクリックでPhi-4をセットアップ可能
- Azure AIとの統合:クラウドとオンデバイスをシームレスに切り替え
関連用語
- SLM(Small Language Model) - Phiが属するローカルAIモデルのカテゴリ
- オンデバイスAI - Phiを活用したローカルAI処理
- ONNX Runtime GenAI - PhiをPC上で実行するランタイム
- NPU - Phiを高速実行するAI専用プロセッサ
まとめ
Phi-3/Phi-4は、MicrosoftのコンパクトなSLMで、Copilot+ PCのNPU上で高速動作します。小型ながら高品質な応答が可能で、プライバシーを重視するユーザーやオフラインでAI機能を使いたいユーザーに最適です。2024年末にリリースされたPhi-4は14Bながら数学・推論で優れた性能を示し、SLMの代表格として位置づけられています。
よくある質問(FAQ)
Q. Phi-4はどのくらいのスペックのPCで動きますか?
INT4量子化版のPhi-4(14B)は16GBのRAMを搭載したCopilot+ PCで動作します。NPUを活用した場合は消費電力も抑えられます。より軽量なPhi-4-mini(3.8B)は8GB RAMのPCでも動作可能です。
Q. Phiシリーズは商用利用可能ですか?
はい。Phi-3/Phi-4はMIT Licenseで公開されており、商用利用が可能です。ただし商用サービスへの組み込みにはMicrosoftの利用規約を確認することをお勧めします。
