このページの本文へ移動

投資判断におけるアルゴリズム・AIの利用と法的責任 鹿島みかり、関口健太、千葉誠(日本銀行)

Research LAB No.18-J-5, 2018年12月5日

キーワード :
アルゴリズム、人工知能、AI、投資判断、説明義務、善管注意義務、相場操縦、インサイダー取引

JEL分類番号 :
K22

Contact :
makoto.chiba@boj.or.jp(千葉誠)

要旨

本稿では、日本銀行金融研究所が事務局を務めた「アルゴリズム・AIの利用を巡る法律問題研究会」報告書(「投資判断におけるアルゴリズム・AIの利用と法的責任」)を紹介する。

同報告書は、アルゴリズム・AIの利用により投資判断が自動化したり、ブラックボックス化したりする場合に生じうる法的論点に焦点を当てている。具体的には、投資運用や投資助言を行う業者に対する規制やそうした業者の民事責任、および不公正取引規制について、法の適用上留意すべき点を検討している。

検討の結果、主観的要件が関係する場合には、アルゴリズム・AIを利用した投資判断が行われると、法適用に限界が生じうることが明らかとなった。これは、アルゴリズム・AIが主観的要件を満たしえないことに起因する問題である。報告書では、こうした問題に対する立法的対応についても検討している。

はじめに

近年、コンピュータの処理性能の向上や利用可能なデータの拡大等を背景に、人工知能(artificial intelligence: AI)に関する技術が大きく進展している。AIは、様々な分野で利用が広がっており、投資判断へのAIの利用もその1つの例である。

AIという語には、定まった定義がなく、多義的に用いられている。広い意味でAIを捉えた場合、次のいずれの場合も、投資判断にAIが利用されていると表現される。1つは、人間が、いつ、何に投資するかのルール(以下、「投資判断基準」という。)を決定し、その基準に基づいて投資を行うアルゴリズムを用いる場合であり、もう1つは、データの学習に基づいて、アルゴリズムが投資判断基準を設定する場合である。また、後者に関しては、分析に当たってどの変数(特徴量)を用いるかを人間が絞り込む場合もあれば、特徴量をアルゴリズムが見つけ出す場合もある。近時注目されているディープ・ラーニングは、こうした手法を可能とする技術であるが、その判断根拠が必ずしも人間に理解できない事態を生じさせる可能性も指摘されている。

このように、投資判断へのアルゴリズム・AIの利用方法はさまざまであり、それにより、法的論点の有無は異なりうる。その中で、特に、法的論点が生じやすいであろう場面としては、次の2つが考えられる。

第1は、アルゴリズム・AIを利用して自動で取引を行い、個々の投資判断の時点で人間の判断が介在しない場合である。

第2は、アルゴリズム・AIの投資判断根拠が人間に理解困難な場合である(いわゆるブラックボックスの問題)。人間が、投資判断基準を決定していれば、社会・経済環境の変化がどのように投資判断に影響を与えるかを分析できるが、アルゴリズム・AIが学習に基づき決定した投資判断基準が人間に理解困難な場合には、どのような投資判断が行われるかを予測することが難しくなることも考えられる。

日本銀行金融研究所が事務局を務めた「アルゴリズム・AIの利用を巡る法律問題研究会」報告書(「投資判断におけるアルゴリズム・AIの利用と法的責任」、以下、「報告書」という。)は、以上を前提に、(1)アルゴリズム・AIによる投資判断サービスを顧客に提供する業者がいる場面において、金融商品取引法上の規制対象となる主体が誰であるか、また、(2)アルゴリズム・AIの投資判断の結果として損失が生じた場合において、こうした業者がどのような責任を負うかについて検討するとともに、(3)アルゴリズム・AIを利用して自動で取引を行う場合一般における不公正取引規制の適用のあり方について検討している。

本稿では、報告書のうち、(2)と(3)の議論の一部を簡潔に紹介する。

投資運用業者の民事責任について

顧客との間で投資一任契約を締結した投資運用業者がいるとしよう。このとき、運用の結果として損失が発生することは当然にありうるが、こうした損失の発生に関し投資運用業者が顧客から何らかの理由で責任を追及されることが考えられる。責任追及の理由としては、例えば、i)契約締結時に投資運用業者から投資のリスクについて十分な説明がなかった、ii)顧客の属性に適合した運用ではなかった、iii)投資運用業者が自己の利益を図るために顧客の利益を犠牲にした取引を行った、iv)投資判断が明らかに不合理であった等、さまざまなものが考えられる。

投資運用業者が、アルゴリズム・AIを利用して投資判断を行う場合であっても、上記i)からiv)等に基づく当該業者の責任が問題となり得る。では、投資判断の根拠が理解困難なアルゴリズム・AIが利用された場合には、投資判断の根拠を顧客に説明できないことをもって、ただちに説明義務違反となるのであろうか。また、こうした場合には投資判断の合理性に立ち入って投資運用業者の責任を判断することが困難となるが、その場合、投資運用業者の責任はどのように判断されるのであろうか。これらの点につき、報告書は、以下のように指摘している。

判断根拠のブラックボックス化と説明義務

一般に、投資一任契約締結時において投資運用業者が説明すべき事項には、投資対象のリスクや運用の基本方針等がある。他方、どのような情報の種類をそれぞれどのように重みづけして個別の投資判断を行うかを説明することまで求められるわけではない。したがって、アルゴリズム・AIを利用する場合であっても、運用の基本方針を示すことができる範囲内でアルゴリズム・AIが投資判断を行うのであれば、どの要素がどのような重みづけで評価されるかが説明し難いことをもって、ただちに説明義務に反するとまではいえない。

このように、判断根拠が理解できないアルゴリズム・AIを利用したからといって、必ず説明義務違反になるとまではいえないと考えられる。ただし、顧客がアルゴリズム・AIを万能であるかのように誤解したり、アルゴリズム・AIを利用した投資戦略固有のリスクを認識していなかったりする可能性がある点には留意を要する。そうした場合には、顧客の属性に照らして必要な方法と程度により、アルゴリズム・AIを利用することのリスクを説明しなければ、投資運用業者が説明義務違反を問われる可能性がある。

投資判断の合理性と善管注意義務1

投資運用業者の運用から損失が生じた場合、投資方針や投資判断の合理性に着目して、投資運用業者の善管注意義務違反の有無が検討される場合がある。

アルゴリズム・AIを利用して投資判断が行われる場合にも、その投資判断基準の合理性に着目して、善管注意義務違反を検討することが考えられる。しかし、投資判断の根拠が人間に理解できないものである場合には、こうした判断が困難となる。報告書では、こうした場合において、投資判断基準の分析自体が困難なアルゴリズム・AIを利用したことのみをもってただちに善管注意義務違反とするのではなく、当該アルゴリズム・AIを用いて投資判断を行うことが合理的かどうかを検討する必要があると提案している。その判断においては、例えば、学習用データの範囲やデータの加工プロセス、テスト用のデータを用いた検証や試験的な運用の結果等のさまざまな事情が考慮されうる。

ただし、実際には、あるアルゴリズム・AIを利用することが合理的かどうかの判断自体が容易ではないことも考えられる。投資運用業者が責任を確実に回避したい場合には、当該アルゴリズム・AIの性質について投資家に説明し、それを踏まえた責任についてあらかじめ合意しておく必要があろう。

  1. 報告書では、投資運用業者がシステムベンダーにアルゴリズム・AIの開発を委託していた場合において、不合理な投資判断が行われたことを理由としてシステムベンダーが責任を負うかどうかについても検討している。そこでは、システムベンダーは、アルゴリズム・AIの特徴や限界等を説明しておかないと、責任が問われやすくなる旨を指摘している。

アルゴリズム・AIによる取引と相場操縦規制2

金融商品取引法は、いわゆる変動取引による相場操縦を禁止している(同法159条2項1号)。規制対象となる要件の解釈については、学説上の議論があるところであるが、判例は、「相場を変動させる可能性のある売買取引等」(変動取引)のうち、「人為的な操作を加えて相場を変動させるにもかかわらず、投資者にその相場が自然の需給関係により形成されるものであると誤認させて有価証券市場における有価証券の売買取引に誘い込む目的」(誘引目的)を持って行う場合に規制対象となるとし、主観的要件により処罰範囲を限定している3

では、アルゴリズム・AIを利用して取引を行う場合、相場操縦規制はどのように適用されるのであろうか。報告書は、ある法人がアルゴリズム・AIを利用して自ら有価証券の売買を行う場合を想定して、この問題を検討している。

まず、法人における取引責任者が、誘引目的をもって、変動取引を行うようなアルゴリズム・AIを構築した場合には、取引責任者や当該法人は相場操縦規制に違反すると考えられる。また、自然の需給に反するような相場を形成する取引を行うアルゴリズム・AIであると取引責任者が認識したにもかかわらず、当該アルゴリズム・AIを利用した取引を継続する場合にも、当該取引責任者の誘引目的を認定し、相場操縦規制違反としうる場合があろう。

他方、アルゴリズム・AIが、取引が相場に与えるインパクトを継続的に学習・分析し、その結果に基づいて取引を行うような場合には、取引責任者は、アルゴリズム・AIが一定の相場変動をもたらす取引を行うことを認識していないこともありうる。こうした場合、比喩的には、アルゴリズム・AIが誘引目的をもって変動取引をしているとも考えられるが、取引行為者が誘引目的を有していない以上、法人や取引責任者に対して、相場操縦規制違反として刑事罰を科したり、課徴金を課したりすることはできない。

この点、金融商品取引業者等は、金融商品取引法上、作為的相場形成を防止するための売買管理義務を負っている。このため、アルゴリズム・AIが相場操縦的行為を行えば、こうした義務に違反するものとして、業務改善命令を発出することが考えられる。しかし、こうした業者規制の違反に対しては、刑事罰や課徴金の規定がないほか、業者規制の対象となっていない法人や個人には規制が及ばない。

こうした状況を受け、報告書は、市場の公正性を確保する観点からは、立法的な対応として、自然の需給に基づかない相場を作出するような取引が行われないようにアルゴリズム・AIを構築・管理することをその利用者に義務付け、そうした管理義務に違反する場合には、課徴金や刑事罰によりエンフォースメントを図る方法も検討に値するとしている。ただし、誘引目的という主観的要素を排除した場合に、防止すべき行為をいかに客観的に画定するかは、なお課題となりうる旨を併せて指摘している。

  1. 2報告書は不公正取引の類型として、相場操縦規制のほかに、インサイダー取引規制も検討している。そこでは、アルゴリズム・AIに未公表重要事実が与えられた場合でも、取引行為者が未公表重要事実を知らない限り、規制違反を問えない可能性を指摘している。
  2. 3最決平成6年7月20日刑集48巻5号201頁。

おわりに

上記検討のうち、投資運用業者の民事責任については、現行法の解釈論の延長線上で議論を行うことが可能であるのに対し、不公正取引規制の適用を巡っては、立法論的な対応の要否やかかる対応をとる場合の課題が問題となった。その理由として、両者の間に、法の適用に当たって、主観的要件が設定されているかどうかの違いがある。アルゴリズム・AIが利用される場合、その主観を観念できないため、規制対象が限定的となってしまう可能性がある。

このように、人間の行為がアルゴリズム・AIに代替される場面においては、現行法の適用上留意すべき事項があるだけでなく、現行法の解釈では十分に対応できず、立法論も視野に入れた検討が必要な課題もありうる。技術革新に対応し、また、技術革新の妨げとならない法制度を維持するに当たっては、こうした検討を今後とも続けていくことが重要であろう。

参考文献

アルゴリズム・AIの利用を巡る法律問題研究会(2018)、「投資判断におけるアルゴリズム・AIの利用と法的責任」、『金融研究』所収予定

日本銀行から

本稿の内容と意見は筆者ら個人に属するものであり、日本銀行の公式見解を示すものではありません。