AIの考えていることを考える

 From:山極綾子

 

 

理由はよくわかりませんけど、AIによると最適なのはこちらの方法であるようです。

 

理由はわからないの?

 

はい、そうです。

 

そんなの、説明できないし使えないよ…。

 

 

AIを実際のビジネスに活用しようとするとき。

 

きっと上のような問答がいくつもあったに違いありません。

 

AIはなんかすごいらしいけれど、なんでそんな出力をしたのか、その説明をしてくれない。

 

説明できないものをビジネスで使って、失敗したときに責任を取るのは採用を決めた人間。

 

だとすれば、AIを使うわけにはいかない…。

 

 

もちろん、他にも知的好奇心などの理由はあったのだと思いますが、

とにもかくにも、AIの中身を理解しようとする研究が昨今盛んにおこなわれています。

 

いわば「AIの考えていることを考える」というような研究です。

 

その方法のひとつとしては、各説明変数の影響を明らかにしようとする、

SHAPと呼ばれる手法やFeature Importanceという指標を出力する方法があります。

 

この方法は、AIが結局何を考えているのかはわからないけれど、各変数の影響はわかる、

といったようなものです。

 

例えば人間の身長の予測モデルについて、性別の影響はXXcmで、

小さい頃に飲んだ牛乳の影響はYYcm、母親の身長の影響はZZcmで…といったように、

それぞれの影響を出すことができます。

 

 

他にも、直接AIの中身をわかりやすくしようとする研究もあります。

 

重回帰分析(y=a1x1+ a2x2+…といったように、各特徴量の係数が推定されるモデルです)

などのシンプルなモデルを使えば、

なんでその出力になったのか?を解釈することは非常に簡単です。

 

ですが、シンプルなモデルの説明力は弱く精度に乏しいことが多いため、

解釈性を取るか、それとも精度を重視して解釈は別の方法で行うか、

という二つを天秤にかけることがほとんどでした。

 

 

ですが2023年5月4日。

 

それを覆すかもしれないモデルが、マサチューセッツ工科大学から提案されました。

 

論文掲載URL:https://arxiv.org/abs/2305.08746

 

人間の脳がそれぞれ担当している役割が違うように、ニューラルネットワークでも、

それぞれの部分に異なる役割を割り当てれば、モデルの解釈ができるのでは?

という研究らしいです。

 

ニューラルネットワークは複雑なモデルの最たるもので、

そのまま解釈することは難しいと言われてきたのですが。。。

 

 

もしこれが可能になれば、AIと人間の距離が一気に縮まるかもしれないと、

とてもワクワクします。

 

 

山極綾子

 

 

P.S.

今日も最後まで読んでいただきありがとうございます!

 

メルマガの感想などありましたら、こちらからお聞かせ下さい。

 

いつも嬉しく拝見しています。いつもありがとうございます!

https://keieijinjipartnersytube.typeform.com/to/B8JjDrk5

 

—————————————————————-
【経営人事メールマガジン】
発行責任者: 山極毅(株式会社経営人事パートナーズ)
発行者住所:〒100-0005東京千代田区丸の内1-8-3丸の内トラストタワー本館20F
連絡先:https://keieijinji.co.jp/
メールアドレス: strategic-membership-program■■keieijinji.co.jp(■■を@に置き換えてください)
—————————————————————-

↓バックナンバーはこちら↓
PC: https://04auto.biz/brd/BackNumber.htm?acc=keieijinji&bid=3
スマホ・ガラケー: https://04auto.biz/brd/BNMobi.htm?a=keieijinji&b=3

↓メルマガの新規登録はこちらから↓
PC: https://48auto.biz/keieijinji/touroku/scenario13.htm
スマホ: https://48auto.biz/keieijinji/touroku/sp/scenario13.htm
ガラケー: https://48auto.biz/keieijinji/touroku/sp/scenario13.htm