AI倫理・ガバナンス | IT用語集
AIシステムが特定のグループや属性に対して不平等な結果を生じさせる偏見や先入観のこと。
AIの判断や予測がどのような根拠で行われたかを人間が理解できるように説明する能力。
個人の情報やデータを適切に保護し、不適切な収集・利用・開示から守る権利と仕組み。
AIシステムを様々な脅威から守り、機密性・完全性・可用性を確保するための総合的な対策。
AIシステムが異なる個人やグループに対して偏見なく平等に扱い、差別的でない結果を提供すること。
AIシステムの動作原理や判断プロセスを明示し、ステークホルダーが理解できる状態にすること。
AIの開発・運用において法令、規則、社内ルール、倫理指針などを遵守すること。
AI技術の急速な発展に伴い、AIシステムの倫理的な開発・運用と適切なガバナンス体制の構築が重要な課題となっています。
このカテゴリでは、AIの責任ある活用に必要な基本概念から、実践的なコンプライアンス対応まで、AI倫理とガバナンスに関する重要な用語を解説しています。
企業のAI担当者、開発者、経営者の方々が、信頼できるAIシステムの構築と運用を行う際の参考としてご活用ください。