SLM(Small Language Model)

AI PC | IT用語集

SLM(Small Language Model)とは

SLM(Small Language Model、小型言語モデル)は、PC上で動作するコンパクトな言語モデルです。ChatGPTなどの大規模言語モデル(LLM)と比べてパラメータ数が少なく(1B~13B程度)、Copilot+ PCNPUにより高速実行可能です。プライバシーを保護しながら、ローカルでAI会話や文章生成が可能になります。

主要なSLM

Microsoft Phi-3

  • Phi-3-mini:3.8Bパラメータ、軽量・高速
  • Phi-3-small:7Bパラメータ、バランス型
  • Phi-3-medium:14Bパラメータ、高性能

Meta Llama 3

  • Llama 3 8B:8Bパラメータ、オープンソース
  • Llama 3.2 1B/3B:超軽量版

Google Gemma

  • Gemma 2B/7B:高品質な小型モデル

LLMとの比較

項目 SLM LLM(ChatGPTなど)
パラメータ数1B~14B70B~1.7T
実行環境PC(NPU/GPU)クラウド(大規模GPU)
応答速度◎ 即座(遅延なし)○ ネットワーク遅延あり
プライバシー◎ 完全ローカル△ クラウド送信
精度・知識量○ 中程度◎ 非常に高い
コスト◎ 無料△ サブスク費用
オフライン動作◎ 可能× 不可

SLMの用途

適しているタスク

  • 文章要約:ドキュメントの要約生成
  • コード補完:プログラミング支援
  • 翻訳:基本的な翻訳タスク
  • Q&A:ドメイン特化型の質問応答
  • 文章校正:スペルチェック、文法修正

不向きなタスク

  • 複雑な推論:多段階の論理的思考
  • 広範な知識:最新ニュース、専門知識
  • 長文生成:長い記事やレポート作成
  • クリエイティブ作文:小説、詩など

必要なスペック

SLMサイズ別の推奨スペック

1B~3Bモデル(超軽量)

  • NPU:40 TOPS以上
  • メモリ:8GB以上
  • :Phi-3-mini、Llama 3.2 1B/3B

7B~8Bモデル(標準)

  • NPU:50 TOPS以上推奨
  • メモリ:16GB以上
  • :Phi-3-small、Llama 3 8B、Gemma 7B

13B~14Bモデル(高性能)

  • NPU + GPU:NPU 50 TOPS + GPU推奨
  • メモリ:32GB以上
  • :Phi-3-medium

SLMの実行方法

主要なツール

  • Ollama:SLMの簡単実行ツール
  • LM Studio:GUIでSLMを実行
  • llama.cpp:軽量なC++実装
  • ONNX Runtime:DirectML経由でNPU活用

まとめ

SLM(Small Language Model)は、PC上で動作する小型言語モデルで、Copilot+ PCのNPUにより高速実行可能です。ChatGPTなどのLLMと比べて精度は劣りますが、プライバシー保護、オフライン動作、即座の応答、無料利用が可能な点で大きなメリットがあります。

この用語についてもっと詳しく

SLMに関するご質問など、お気軽にお問い合わせください。