2023年02月27日13時49分 / 提供:マイナビニュース
立教大学大学院 人工知能科学研究科は2月27日、石川真之介特任准教授、瀧雅人准教授、内山泰伸教授らと豆蔵よる研究チームが、AI(Artificial Intelligence:人工知能)の判断を「AIモデルが具体的にどのようなデータを学習したか」で説明する「説明可能AI」の手法を開発したことを発表した。この手法を用いることで、「AIの判断結果が信頼できるか」について簡便かる直感的に判断できるようになるという。
AIが精度良く判断を行うことができるかは、AIモデルの構成や学習アルゴリズムに加えて、モデルを学習させたデータの影響を受ける。近年では、AIの精度向上には複雑なモデルを利用するよりもむしろ学習データの量や質を向上させる方が重要であるとされ、AIの活用においては「データ中心」に考えるべきだとする意見もある。
[ 続きを読む ]