AIの考えていることを考える
From:山極綾子
理由はよくわかりませんけど、AIによると最適なのはこちらの方法であるようです。
理由はわからないの?
はい、そうです。
そんなの、説明できないし使えないよ…。
AIを実際のビジネスに活用しようとするとき。
きっと上のような問答がいくつもあったに違いありません。
AIはなんかすごいらしいけれど、なんでそんな出力をしたのか、その説明をしてくれない。
説明できないものをビジネスで使って、失敗したときに責任を取るのは採用を決めた人間。
だとすれば、AIを使うわけにはいかない…。
もちろん、他にも知的好奇心などの理由はあったのだと思いますが、
とにもかくにも、AIの中身を理解しようとする研究が昨今盛んにおこなわれています。
いわば「AIの考えていることを考える」というような研究です。
その方法のひとつとしては、各説明変数の影響を明らかにしようとする、
SHAPと呼ばれる手法やFeature Importanceという指標を出力する方法があります。
この方法は、AIが結局何を考えているのかはわからないけれど、各変数の影響はわかる、
といったようなものです。
例えば人間の身長の予測モデルについて、性別の影響はXXcmで、
小さい頃に飲んだ牛乳の影響はYYcm、母親の身長の影響はZZcmで…といったように、
それぞれの影響を出すことができます。
他にも、直接AIの中身をわかりやすくしようとする研究もあります。
重回帰分析(y=a1x1+ a2x2+…といったように、各特徴量の係数が推定されるモデルです)
などのシンプルなモデルを使えば、
なんでその出力になったのか?を解釈することは非常に簡単です。
ですが、シンプルなモデルの説明力は弱く精度に乏しいことが多いため、
解釈性を取るか、それとも精度を重視して解釈は別の方法で行うか、
という二つを天秤にかけることがほとんどでした。
ですが2023年5月4日。
それを覆すかもしれないモデルが、マサチューセッツ工科大学から提案されました。
論文掲載URL:https://arxiv.org/abs/2305.08746
人間の脳がそれぞれ担当している役割が違うように、ニューラルネットワークでも、
それぞれの部分に異なる役割を割り当てれば、モデルの解釈ができるのでは?
という研究らしいです。
ニューラルネットワークは複雑なモデルの最たるもので、
そのまま解釈することは難しいと言われてきたのですが。。。
もしこれが可能になれば、AIと人間の距離が一気に縮まるかもしれないと、
とてもワクワクします。
山極綾子
P.S.
今日も最後まで読んでいただきありがとうございます!
メルマガの感想などありましたら、こちらからお聞かせ下さい。
いつも嬉しく拝見しています。いつもありがとうございます!
↓
https://keieijinjipartnersytube.typeform.com/to/B8JjDrk5
—————————————————————-
【経営人事メールマガジン】
発行責任者: 山極毅(株式会社経営人事パートナーズ)
発行者住所:〒100-0005東京千代田区丸の内1-8-3丸の内トラストタワー本館20F
連絡先:https://keieijinji.co.jp/
メールアドレス: strategic-membership-program■■keieijinji.co.jp(■■を@に置き換えてください)
—————————————————————-
↓バックナンバーはこちら↓
PC: https://04auto.biz/brd/BackNumber.htm?acc=keieijinji&bid=3
スマホ・ガラケー: https://04auto.biz/brd/BNMobi.htm?a=keieijinji&b=3
↓メルマガの新規登録はこちらから↓
PC: https://48auto.biz/keieijinji/touroku/scenario13.htm
スマホ: https://48auto.biz/keieijinji/touroku/sp/scenario13.htm
ガラケー: https://48auto.biz/keieijinji/touroku/sp/scenario13.htm