SLM(Small Language Model)とは
SLM(Small Language Model、小型言語モデル)は、PC上で動作するコンパクトな言語モデルです。ChatGPTなどの大規模言語モデル(LLM)と比べてパラメータ数が少なく(1B~13B程度)、Copilot+ PCのNPUにより高速実行可能です。プライバシーを保護しながら、ローカルでAI会話や文章生成が可能になります。
主要なSLM
Microsoft Phi-3
- Phi-3-mini:3.8Bパラメータ、軽量・高速
- Phi-3-small:7Bパラメータ、バランス型
- Phi-3-medium:14Bパラメータ、高性能
Meta Llama 3
- Llama 3 8B:8Bパラメータ、オープンソース
- Llama 3.2 1B/3B:超軽量版
Google Gemma
- Gemma 2B/7B:高品質な小型モデル
LLMとの比較
| 項目 | SLM | LLM(ChatGPTなど) |
|---|---|---|
| パラメータ数 | 1B~14B | 70B~1.7T |
| 実行環境 | PC(NPU/GPU) | クラウド(大規模GPU) |
| 応答速度 | ◎ 即座(遅延なし) | ○ ネットワーク遅延あり |
| プライバシー | ◎ 完全ローカル | △ クラウド送信 |
| 精度・知識量 | ○ 中程度 | ◎ 非常に高い |
| コスト | ◎ 無料 | △ サブスク費用 |
| オフライン動作 | ◎ 可能 | × 不可 |
SLMの用途
適しているタスク
- 文章要約:ドキュメントの要約生成
- コード補完:プログラミング支援
- 翻訳:基本的な翻訳タスク
- Q&A:ドメイン特化型の質問応答
- 文章校正:スペルチェック、文法修正
不向きなタスク
- 複雑な推論:多段階の論理的思考
- 広範な知識:最新ニュース、専門知識
- 長文生成:長い記事やレポート作成
- クリエイティブ作文:小説、詩など
必要なスペック
SLMサイズ別の推奨スペック
1B~3Bモデル(超軽量)
- NPU:40 TOPS以上
- メモリ:8GB以上
- 例:Phi-3-mini、Llama 3.2 1B/3B
7B~8Bモデル(標準)
- NPU:50 TOPS以上推奨
- メモリ:16GB以上
- 例:Phi-3-small、Llama 3 8B、Gemma 7B
13B~14Bモデル(高性能)
- NPU + GPU:NPU 50 TOPS + GPU推奨
- メモリ:32GB以上
- 例:Phi-3-medium
SLMの実行方法
主要なツール
- Ollama:SLMの簡単実行ツール
- LM Studio:GUIでSLMを実行
- llama.cpp:軽量なC++実装
- ONNX Runtime:DirectML経由でNPU活用
まとめ
SLM(Small Language Model)は、PC上で動作する小型言語モデルで、Copilot+ PCのNPUにより高速実行可能です。ChatGPTなどのLLMと比べて精度は劣りますが、プライバシー保護、オフライン動作、即座の応答、無料利用が可能な点で大きなメリットがあります。
