AI面接 なぜ落ちたのか…親切なXAIが詳しく教えてくれます。
DATE 2025.04.14VIEW 14
人工知能(AI)面接から脱落したら、その理由を知ることができなければならないだろうか。私のような年俸を受ける友人より高い金利を適用されたら、AI信用評価モデルがなぜそう判断したのか説明を聞くことができなければならないだろうか。
チェ・ジェシクKAIST教授(47)は、このようにAIの決定過程を人が理解できるように説明する「説明可能なAI(XAI)」分野の先導的研究者だ。彼は現在、KAIST XAI研究センター長を務めている。
XAIは既存のブラックボックス型AIモデルを透明にして人工知能がどのように判断したのか、その根拠をユーザーに提供する技術だ。これにより、AIの信頼性と公平性を高めることが目的である。
特に来年1月に施行を控えたAI基本法は、XAIの重要性をさらに浮上させる。この法律には、△公正で透明で解釈可能なアルゴリズムの使用を通じて「信頼できるAI」を開発・活用しなければならないという条項と、△AIサービス提供者がユーザーにAIの意思決定理由と過程を説明できる情報を提供しなければならないという「ユーザーの知る権利」保証項目が含まれている。
AIの判断が日常と生活に実質的な影響を及ぼす時代、その判断の根拠を問い、理解できる権利が、今は法的にも保障される方向に進んでいるわけだ。
これにイデイリーはチェ・ジェシク教授に会ってXAIの開発現況と適用可能な分野、技術の未来などを尋ねた。次はチェ・ジェシク教授との一問一答だ。