Phi-3

AI PC | IT用語集

Phi-3とは

Phi-3は、Microsoftが開発したコンパクトなSLM(Small Language Model)シリーズです。3.8B~14Bパラメータという小型ながら、大規模モデルに匹敵する性能を持ち、Copilot+ PCNPU上で高速動作します。プライバシーを保護しながら、ローカルでAI会話や文章生成が可能です。

Phi-3シリーズ

Phi-3-mini(3.8Bパラメータ)

  • 最軽量:スマートフォンでも動作可能
  • メモリ:4-8GB RAM
  • 用途:簡単な質問応答、文章要約、コード補完
  • 速度:最高速(NPU上で秒間30トークン以上)

Phi-3-small(7Bパラメータ)

  • バランス型:性能と速度の最適バランス
  • メモリ:16GB RAM推奨
  • 用途:詳細な質問応答、翻訳、文章生成
  • Copilot+ PC推奨:NPU 40 TOPS以上

Phi-3-medium(14Bパラメータ)

  • 最高性能:SLMの中でトップクラスの精度
  • メモリ:32GB RAM推奨
  • 用途:複雑な推論、長文生成、専門的なタスク
  • 推奨:NPU 50 TOPS + GPU併用

Phi-3の特徴

高品質な学習データ

  • 厳選された高品質データで学習
  • 教科書レベルの正確性
  • 論理的思考能力が高い

コンテキスト長

  • Phi-3-mini:128Kトークン(約10万語)
  • Phi-3-small/medium:128Kトークン
  • 長いドキュメントの処理が可能

多言語対応

  • 日本語、英語、中国語など主要言語対応
  • 多言語での質問応答・翻訳が可能

Copilot+ PCでの実行方法

Ollamaでの実行


# Phi-3-miniをダウンロード・実行
ollama run phi3

# チャット開始
>>> こんにちは、Phi-3です。何をお手伝いしましょうか?

ONNX Runtimeでの実行

DirectML経由でNPUを活用し、最高のパフォーマンスを実現:


import onnxruntime as ort

# NPUを使用してPhi-3を実行
providers = ['DmlExecutionProvider']
session = ort.InferenceSession('phi3-mini.onnx', providers=providers)

Phi-4の最新情報(2024-2025年)

  • Phi-4リリース(2024年12月):14Bパラメータで数学・推論能力が飛躍的向上
  • Phi-4-mini(2025年):3.8Bと軽量ながら高性能なコンパクト版
  • Phi-4 Multimodal(2025年):テキスト+画像対応のマルチモーダル版
  • Windows AI Foundry統合:Copilot+ PCでワンクリックでPhi-4をセットアップ可能
  • Azure AIとの統合:クラウドとオンデバイスをシームレスに切り替え

関連用語

まとめ

Phi-3/Phi-4は、MicrosoftのコンパクトなSLMで、Copilot+ PCのNPU上で高速動作します。小型ながら高品質な応答が可能で、プライバシーを重視するユーザーやオフラインでAI機能を使いたいユーザーに最適です。2024年末にリリースされたPhi-4は14Bながら数学・推論で優れた性能を示し、SLMの代表格として位置づけられています。

よくある質問(FAQ)

Q. Phi-4はどのくらいのスペックのPCで動きますか?

INT4量子化版のPhi-4(14B)は16GBのRAMを搭載したCopilot+ PCで動作します。NPUを活用した場合は消費電力も抑えられます。より軽量なPhi-4-mini(3.8B)は8GB RAMのPCでも動作可能です。

Q. Phiシリーズは商用利用可能ですか?

はい。Phi-3/Phi-4はMIT Licenseで公開されており、商用利用が可能です。ただし商用サービスへの組み込みにはMicrosoftの利用規約を確認することをお勧めします。

この用語についてもっと詳しく

Phi-3に関するご質問など、お気軽にお問い合わせください。