Phi-3

AI PC | IT用語集

Phi-3とは

Phi-3は、Microsoftが開発したコンパクトなSLM(Small Language Model)シリーズです。3.8B~14Bパラメータという小型ながら、大規模モデルに匹敵する性能を持ち、Copilot+ PCNPU上で高速動作します。プライバシーを保護しながら、ローカルでAI会話や文章生成が可能です。

Phi-3シリーズ

Phi-3-mini(3.8Bパラメータ)

  • 最軽量:スマートフォンでも動作可能
  • メモリ:4-8GB RAM
  • 用途:簡単な質問応答、文章要約、コード補完
  • 速度:最高速(NPU上で秒間30トークン以上)

Phi-3-small(7Bパラメータ)

  • バランス型:性能と速度の最適バランス
  • メモリ:16GB RAM推奨
  • 用途:詳細な質問応答、翻訳、文章生成
  • Copilot+ PC推奨:NPU 40 TOPS以上

Phi-3-medium(14Bパラメータ)

  • 最高性能:SLMの中でトップクラスの精度
  • メモリ:32GB RAM推奨
  • 用途:複雑な推論、長文生成、専門的なタスク
  • 推奨:NPU 50 TOPS + GPU併用

Phi-3の特徴

高品質な学習データ

  • 厳選された高品質データで学習
  • 教科書レベルの正確性
  • 論理的思考能力が高い

コンテキスト長

  • Phi-3-mini:128Kトークン(約10万語)
  • Phi-3-small/medium:128Kトークン
  • 長いドキュメントの処理が可能

多言語対応

  • 日本語、英語、中国語など主要言語対応
  • 多言語での質問応答・翻訳が可能

Copilot+ PCでの実行方法

Ollamaでの実行


# Phi-3-miniをダウンロード・実行
ollama run phi3

# チャット開始
>>> こんにちは、Phi-3です。何をお手伝いしましょうか?

ONNX Runtimeでの実行

DirectML経由でNPUを活用し、最高のパフォーマンスを実現:


import onnxruntime as ort

# NPUを使用してPhi-3を実行
providers = ['DmlExecutionProvider']
session = ort.InferenceSession('phi3-mini.onnx', providers=providers)

まとめ

Phi-3は、MicrosoftのコンパクトなSLMで、Copilot+ PCのNPU上で高速動作します。小型ながら高品質な応答が可能で、プライバシーを重視するユーザーや、オフラインでAI機能を使いたいユーザーに最適です。特にPhi-3-miniは、16GB RAMのPCでも快適に動作する実用的なモデルです。

この用語についてもっと詳しく

Phi-3に関するご質問など、お気軽にお問い合わせください。