チェ・ジェシク・カイスト教授・グーグル責任感のあるAIフォーラム議長チャット
GPTなどLLMは相当部分が説明しにくく、「
医療・国防でAIがなぜミスするのかわからないと使えるのか」「
AIがなぜミスしたのか知って解決策提示できるはず」
AI どんな分野になってもグローバル市場をターゲットしなけ
洗面台排水口が詰まって水が溢れる状況が生じたとき、我々は配管工を呼んで修理を要請する。配管工は排水口に髪の毛がたくさん挟まれているという診断を下し、髪を取り除いた後、排水口が古すぎるとこれを交換するだろう。ところが、生成型人工知能(AI)を活用したサービスに問題が生じた場合は、誰に直してもらうべきか。工夫の終わりにAIサービスを作った人に問い合わせたが、それでもAIサービスの誤動作原因を知らない状況が生じたら、おそらく人々はこのサービスをもう使用しなくなるだろう。名前で「説明可能なAI」が重要になる理由だ。
チェ・ジェシク韓国科学技術院(KAIST)キム・ジェチョルAI大学院教授は去る2016年グーグルディープマインドが開発したAI囲碁プログラム'アルファゴ(AlphaGo)'がイ・セドル9段に勝った時から'説明可能なAI'を主張してきた人物だ。チェ教授は最近キム・ジェチョルAI大学院城南研究センターでのインタビューで「AIの動作原理を知らなければ使えない環境があるかもしれない」とし、「チャットGPTなど大型言語モデル(LLM)は知らない部分がはるかに多いが、この部分を知ろうとするのが説明可能なAIで行うことだ」と明らかにした。彼はKAIST説明可能な人工知能(eXplainable AI・XAI)研究センター長であり、Googleの「責任感あるAIフォーラム」議長を務めている。
次はチェ・ジェシク・カイスト教授とのインタビューをまとめたものだ。
-「説明可能なAI」が注目されている。
△AIがうまく機能しているのに、なぜそうなのか誰も知らないというなら、使い続けることができるだろうか。 AIスピーカーは間違ってもあまりダメージがなかった。何か検索するときにGoogleの検索原理を知らなくてもよい。ところが、医療・自律走行自動車・国防・大規模金融取引などでAIが間違っていれば、引き続き活用できるか考えてみなければならない。防衛分野でAIが使用されているとき、1万回のうちの1回爆弾が間違って爆発するというとき、いつ間違って爆発するのか誰も知らなければAIを使用しないでしょう。知らないと使えない環境がある。説明可能なAIは、AIの動作原理を知るべきだということだ。
-説明可能なAIは医療・防衛など安全に関わる部分でのみ有効か。
△必ずそうではない。もしスマートフォンAIエージェントが約束をとるのに、一週間のうち特定の日ごとに間違っている。そうすれば不気味になるだろう。ところが、間違わないようにするために「R」というアルファベットを入れては間違っているだろうか。このように方法を見つければそれでも書くことができますが、方法を見つけることができないと使うでしょう。人の手で何かをしなければならない煩わしさが生じるからだ。 AIを使う人の立場で間違っても良いことはない。ある時は認識が上手で、いつの間にならないならば、これを書く人はその原理を知りたいと思うだろう。
- 高リスクAIに分類されるいくつかがある。それは説明可能なAIが必ず適用されるべきですか?
△AIサービス利用者の生命、経済的利害関係に直接影響を及ぼすことについては「高リスク」ということに大多数が同意する。自律走行、信用評価、人事評価などだ。高リスクだと必ずしも「説明しなければならない」というわけではない。ただし、韓国は3月の個人情報保護法の改正を通じて個人情報が入ったことの中にAIが意思決定を誤って被害を受けた場合、これを説明するようにした。例えば、AIを活用した結果で信用度が低すぎて出てきたり、入社面接から脱落したとしたら、なぜそうするのかを説明しなければならない。もちろん、これらの法律に同意しない人もいます。