このページの本文へ移動

格付け分類モデルにおける機械学習の応用:機械学習の説明可能性を高める手法

2023年3月23日
橋本龍一郎*1
三浦翔*2
吉崎康則*3

要旨

近年、金融機関における様々な業務において機械学習の活用が進んでいる。信用リスク管理の分野では、クレジットスコアリングモデルやデフォルト率モデルに機械学習を活用する事例がみられ始めている。本稿では、格付け分類モデルの推計に機械学習を応用した。まず、説明変数等の条件を揃えたうえで、機械学習と順序ロジット回帰によって格付け分類モデルを推計し、モデル構造の差異によって、どの程度予測精度に違いが生じるのかを確認した。次に、近年急速に研究が進んでいる機械学習の説明可能性を高めるための手法(「説明可能なAI」)を応用して、変数重要度の計測やモデル予測値の要因分解を行った。分析結果は以下の通りである。第一に、機械学習の応用により、財務指標と信用力の非線形的な関係が捕捉しやすくなり、順序ロジット対比で大幅に予測精度が改善した。第二に、SHAP(SHapley Additive exPlanations)PDP(Partial Dependence Plot)を用いてモデル予測値の要因分解を行うことで、売上高、総資産回転率やICRといった財務指標が企業の信用力に与える影響が大きいことが分かったほか、ICRが2倍以下に低下すると信用力が急激に減少するといった非線形性が観察された。これらの説明可能性を高めるために用いる手法の仮定や限界を正しく把握しつつ活用することで、機械学習の課題の一つである説明可能性の低さを補完することが可能となる。

キーワード
信用リスク管理、機械学習、説明可能性、説明可能なAI

JEL 分類番号
C49, C55, G32
  1. *1日本銀行金融機構局 E-mail : ryuuichirou.hashimoto@boj.or.jp
  2. *2日本銀行金融機構局 E-mail : kakeru.miura@boj.or.jp
  3. *3日本銀行金融機構局 E-mail : yasunori.yoshizaki@boj.or.jp

日本銀行から

日本銀行ワーキングペーパーシリーズは、日本銀行員および外部研究者の研究成果をとりまとめたもので、内外の研究機関、研究者等の有識者から幅広くコメントを頂戴することを意図しています。ただし、論文の中で示された内容や意見は、日本銀行の公式見解を示すものではありません。
なお、ワーキングペーパーシリーズに対するご意見・ご質問や、掲載ファイルに関するお問い合わせは、執筆者までお寄せ下さい。
商用目的で転載・複製を行う場合は、予め日本銀行情報サービス局(post.prd8@boj.or.jp)までご相談下さい。転載・複製を行う場合は、出所を明記して下さい。