ONNX Runtime

AI PC | IT用語集

ONNX Runtimeとは

ONNX Runtimeは、ONNX(Open Neural Network Exchange)形式のAIモデルを実行するためのクロスプラットフォーム推論エンジンです。Windows、Linux、macOS、iOS、Androidで動作し、CPUGPUNPUなど様々なハードウェアに対応。Copilot+ PCではDirectMLと統合され、NPUを活用した高速AI推論を実現します。

主な特徴

1. クロスプラットフォーム

  • Windows:DirectML経由でNPU対応
  • Linux:CUDA、OpenVINO対応
  • macOS:Core ML対応
  • モバイル:iOS、Android対応

2. 幅広いハードウェア対応

  • CPU:Intel、AMD、ARM
  • GPU:NVIDIA(CUDA)、AMD、Intel
  • NPU:Intel AI Boost、AMD XDNA、Hexagon(DirectML経由)

3. フレームワーク互換性

以下のフレームワークで学習したモデルをONNX形式に変換して実行:

  • PyTorch:torch.onnx.exportで変換
  • TensorFlow:tf2onnxで変換
  • Scikit-learn:sklearn-onnxで変換
  • Keras:keras2onnxで変換

Copilot+ PCでの活用

DirectMLとの統合

ONNX RuntimeはDirectMLをサポートしており、以下が可能:

  • 自動NPU活用:ExecutionProviderに'DmlExecutionProvider'を指定
  • ハイブリッド実行:CPU/GPU/NPUを自動的に使い分け
  • 最適化:Intel、AMD、Qualcommの各NPUに最適化

使用例


import onnxruntime as ort

# DirectML(NPU)を使用
providers = ['DmlExecutionProvider', 'CPUExecutionProvider']
session = ort.InferenceSession('model.onnx', providers=providers)

# 推論実行(自動的にNPUを使用)
outputs = session.run(None, {'input': input_data})

まとめ

ONNX Runtimeは、クロスプラットフォームでAI推論を実行できる強力なエンジンです。Copilot+ PCではDirectMLと統合され、NPUを活用した高速・低消費電力なAI処理を実現します。AI開発者にとって、デバイス非依存のAIアプリケーション開発を可能にする重要なツールです。

この用語についてもっと詳しく

ONNX Runtimeに関するご質問など、お気軽にお問い合わせください。