この用語をシェア
ResNetとは
ResNet(Residual Neural Network)は、2015年にMicrosoft Researchが開発した革命的な深層畳み込みニューラルネットワーク(CNN)アーキテクチャです。従来の深層ネットワークが抱えていた勾配消失問題を解決し、非常に深いネットワーク(152層以上)の訓練を可能にしました。
残差学習の革新
スキップ接続
ResNetの最大の特徴は「スキップ接続」(または「ショートカット接続」)です。入力をそのまま出力に加算することで、ネットワークが恒等写像を学習しやすくし、深いネットワークでも効率的に訓練できます。
勾配消失問題の解決
従来の深いネットワークでは、逆伝播時に勾配が消失し、初期層のパラメータが更新されない問題がありました。ResNetのスキップ接続により、勾配が直接的に初期層に伝わるため、この問題が大幅に改善されました。
残差ブロック
ResNetは「残差ブロック」という構造単位で構成されます。各ブロックでは、入力xに対してF(x) + xという形で出力を計算し、ネットワークは残差F(x)を学習します。
主要なバリエーション
- ResNet-18/34:比較的浅い構成で、計算リソースが限られた環境に適用
- ResNet-50/101/152:ボトルネック構造を持つより深いモデル
- ResNeXt:グループ畳み込みを導入した改良版
- Wide ResNet:層数よりも幅(チャンネル数)を重視した変種
応用分野と成果
画像分類
ImageNet Large Scale Visual Recognition Challenge (ILSVRC) 2015で1位を獲得し、人間の認識精度を超える性能を達成しました。
物体検出
Faster R-CNN、Mask R-CNNなどの物体検出モデルのバックボーンとして広く採用されています。
セマンティックセグメンテーション
画像の各ピクセルを分類するタスクでも、ResNetベースのモデルが高い性能を発揮しています。
実装と利用
ResNetは多くの深層学習フレームワークで事前学習済みモデルが提供されており、転移学習による活用が容易です。PyTorch、TensorFlow、Kerasなどで標準的に利用可能で、コンピュータビジョンタスクの基盤として広く採用されています。
影響と発展
ResNetの登場により、深層学習における「深さ」の限界が大幅に拡張されました。その後開発されたDenseNet、EfficientNet、Vision Transformerなどの先進的なアーキテクチャも、ResNetのアイデアを基盤として発展しています。現在でも多くのコンピュータビジョンアプリケーションの標準的な選択肢として利用されています。
