SLM(Small Language Model)とは
SLM(Small Language Model、小型言語モデル)は、PC上で動作するコンパクトな言語モデルです。ChatGPTなどの大規模言語モデル(LLM)と比べてパラメータ数が少なく(1B~13B程度)、Copilot+ PCのNPUにより高速実行可能です。プライバシーを保護しながら、ローカルでAI会話や文章生成が可能になります。
主要なSLM
Microsoft Phi-3
- Phi-3-mini:3.8Bパラメータ、軽量・高速
- Phi-3-small:7Bパラメータ、バランス型
- Phi-3-medium:14Bパラメータ、高性能
Meta Llama 3
- Llama 3 8B:8Bパラメータ、オープンソース
- Llama 3.2 1B/3B:超軽量版
Google Gemma
- Gemma 2B/7B:高品質な小型モデル
LLMとの比較
| 項目 | SLM | LLM(ChatGPTなど) |
|---|---|---|
| パラメータ数 | 1B~14B | 70B~1.7T |
| 実行環境 | PC(NPU/GPU) | クラウド(大規模GPU) |
| 応答速度 | ◎ 即座(遅延なし) | ○ ネットワーク遅延あり |
| プライバシー | ◎ 完全ローカル | △ クラウド送信 |
| 精度・知識量 | ○ 中程度 | ◎ 非常に高い |
| コスト | ◎ 無料 | △ サブスク費用 |
| オフライン動作 | ◎ 可能 | × 不可 |
SLMの用途
適しているタスク
- 文章要約:ドキュメントの要約生成
- コード補完:プログラミング支援
- 翻訳:基本的な翻訳タスク
- Q&A:ドメイン特化型の質問応答
- 文章校正:スペルチェック、文法修正
不向きなタスク
- 複雑な推論:多段階の論理的思考
- 広範な知識:最新ニュース、専門知識
- 長文生成:長い記事やレポート作成
- クリエイティブ作文:小説、詩など
必要なスペック
SLMサイズ別の推奨スペック
1B~3Bモデル(超軽量)
- NPU:40 TOPS以上
- メモリ:8GB以上
- 例:Phi-3-mini、Llama 3.2 1B/3B
7B~8Bモデル(標準)
- NPU:50 TOPS以上推奨
- メモリ:16GB以上
- 例:Phi-3-small、Llama 3 8B、Gemma 7B
13B~14Bモデル(高性能)
- NPU + GPU:NPU 50 TOPS + GPU推奨
- メモリ:32GB以上
- 例:Phi-3-medium
SLMの実行方法
主要なツール
- Ollama:SLMの簡単実行ツール
- LM Studio:GUIでSLMを実行
- llama.cpp:軽量なC++実装
- ONNX Runtime:DirectML経由でNPU活用
2025〜2026年の最新モデル動向
- Phi-4(Microsoft, 2024年):3.8Bと14Bバリアント、数学・推論能力が特に優秀
- Gemma 3(Google, 2025年):1B/4B/12Bバリアント、多言語対応強化
- Llama 3.2(Meta):1B/3B版で超軽量、スマートフォンでも動作
- DeepSeek-R1-Distill:推論特化モデルを小型化した高性能SLM
- Apple Intelligence:iPhone/Mac向け専用SLM(プライベート非公開)
SLMを動かすためのツール
- Ollama:コマンドラインでLLMをローカル実行(最も手軽)
- LM Studio:GUIでローカルLLMを管理・実行
- Windows AI Foundry:CopilotPCでNPU最適化して実行
- ONNX Runtime GenAI:開発者向けAPIでSLMを組み込み
関連用語
- オンデバイスAI - SLMが実現するローカルAI処理
- NPU - SLMを高速実行するAI専用プロセッサ
- Phi(Phiシリーズ) - MicrosoftのSLMシリーズ
- 量子化 - SLMのサイズをさらに削減する最適化技術
- ONNX Runtime - SLMのローカル実行エンジン
まとめ
SLM(Small Language Model)は、PC上で動作する小型言語モデルで、Copilot+ PCのNPUにより高速実行可能です。ChatGPTなどのLLMと比べて精度は劣りますが、プライバシー保護、オフライン動作、即座の応答、無料利用が可能な点で大きなメリットがあります。2025年にはPhi-4、Gemma 3など高性能なSLMが相次いで登場し、一般的なビジネスタスクならSLMだけで十分こなせるケースも増えています。
よくある質問(FAQ)
Q. SLMとLLMはどう違いますか?
SLMはパラメータ数が1B〜14B程度で、PCのNPU/GPUで動作します。LLMは70B〜数兆パラメータでクラウドが必要です。SLMはプライバシー保護・オフライン動作・低コストが強みで、LLMは知識量と推論能力が強みです。
Q. 無料でSLMを試すには?
Ollamaが最も手軽です。インストール後、ターミナルで「ollama run phi4」などのコマンドを実行するだけでローカルLLMが使えます。Windows/Mac/Linux対応で、Phi-4、Llama 3、Gemma等の主要SLMをサポートしています。
