ONNX Runtime

AI PC | IT用語集

ONNX Runtimeとは

ONNX Runtimeは、ONNX(Open Neural Network Exchange)形式のAIモデルを実行するためのクロスプラットフォーム推論エンジンです。Windows、Linux、macOS、iOS、Androidで動作し、CPUGPUNPUなど様々なハードウェアに対応。Copilot+ PCではDirectMLと統合され、NPUを活用した高速AI推論を実現します。

主な特徴

1. クロスプラットフォーム

  • Windows:DirectML経由でNPU対応
  • Linux:CUDA、OpenVINO対応
  • macOS:Core ML対応
  • モバイル:iOS、Android対応

2. 幅広いハードウェア対応

  • CPU:Intel、AMD、ARM
  • GPU:NVIDIA(CUDA)、AMD、Intel
  • NPU:Intel AI Boost、AMD XDNA、Hexagon(DirectML経由)

3. フレームワーク互換性

以下のフレームワークで学習したモデルをONNX形式に変換して実行:

  • PyTorch:torch.onnx.exportで変換
  • TensorFlow:tf2onnxで変換
  • Scikit-learn:sklearn-onnxで変換
  • Keras:keras2onnxで変換

Copilot+ PCでの活用

DirectMLとの統合

ONNX RuntimeはDirectMLをサポートしており、以下が可能:

  • 自動NPU活用:ExecutionProviderに'DmlExecutionProvider'を指定
  • ハイブリッド実行:CPU/GPU/NPUを自動的に使い分け
  • 最適化:Intel、AMD、Qualcommの各NPUに最適化

使用例


import onnxruntime as ort

# DirectML(NPU)を使用
providers = ['DmlExecutionProvider', 'CPUExecutionProvider']
session = ort.InferenceSession('model.onnx', providers=providers)

# 推論実行(自動的にNPUを使用)
outputs = session.run(None, {'input': input_data})

2025〜2026年の最新動向

  • ONNX Runtime GenAI:LLM/SLMの生成AI処理に特化した拡張パッケージ
  • Phi-4のNPU実行:MicrosoftのSLMがONNX Runtime経由でCopilot+ PCのNPUで動作
  • WebNN統合:ブラウザ(WebNN API)からもONNX Runtimeが利用可能に
  • INT4量子化対応強化:さらに軽量なモデル実行でNPU省電力化

関連用語

外部リファレンス:
ONNX Runtime公式サイト
ONNX Runtime GitHub

まとめ

ONNX Runtimeは、クロスプラットフォームでAI推論を実行できる強力なエンジンです。Copilot+ PCではDirectMLと統合され、NPUを活用した高速・低消費電力なAI処理を実現します。AI開発者にとって、デバイス非依存のAIアプリケーション開発を可能にする重要なツールです。2025年以降はONNX Runtime GenAIによるLLM/SLM対応が進み、ローカルAIの標準推論エンジンとしての地位を確立しています。

よくある質問(FAQ)

Q. ONNX Runtimeとは何ですか?

MicrosoftのオープンソースAI推論エンジンです。ONNX形式のモデルをCPU・GPU・NPUなど様々なハードウェアで効率的に実行できます。Windows、Linux、macOS、iOS、Android等の主要プラットフォームをサポートしています。

Q. PyTorchで学習したモデルをONNX Runtimeで実行するには?

①torch.onnx.exportでモデルをONNX形式に変換、②onnxruntimeパッケージをインストール(pip install onnxruntime)、③InferenceSession('model.onnx')でセッションを作成、④session.run()で推論実行、という流れです。NPUを使う場合はproviders=['DmlExecutionProvider']を指定します。

この用語についてもっと詳しく

ONNX Runtimeに関するご質問など、お気軽にお問い合わせください。