close
PRESS
XAI 最新研究動向と産業界での活用事例 共有
DATE 2024.07.02VIEW 244

イベント前景

 

今年3月にEU人工知能法が最終通過し、AIシステムに対するグローバル規制が現実化するにつれ、AIモデルの透明性向上とAI規制遵守を支援できる説明可能人工知能(eXplainable Artificial Intelligence, XAI)技術への関心が高まっている。

ここに、XAI分野で活発に研究中の国内研究機関と企業関係者が一緒に集まり、最新の研究動向を交流する時間があった。 KAIST説明可能人工知能研究センター(センター長チェ・ジェシク教授)主管で先月27日、済州国際コンベンションセンターで「KCC説明可能人工知能(XAI)ワークショップ2024」が開催された。

この日のイベントでは、XAI分野の最新研究動向と産業界活用事例に対する招請講演と論文発表が行われた。

最近の研究が活発な分野であるマルチモーダルAIモデルの研究と解析動向について、高麗大学ソ・ホンソク教授(「マルチモーダル対話型人工知能関連研究動向」)と韓畑大学パクチョンウム教授(「Multimodal Counterfactual reasoningを用いた自然言語解析研究動向」)の招待講演があった。

また、金融・医療分野にXAIが活用された事例について、「金融および銀行での説明可能なAI」(オ・スンヨン共同議長、(社)と実演未来フォーラム)と「Digital HealthにおけるXAIの役割:Repeech事例を中心に(キム・ジンウ代表、(株)HAII)、講演が続いた。また、説明可能人工知能分野の国際標準化グループリーダーのイ・ジェホ教授(ソウル市立大学)が「フロンティアAI信頼性技術と政策」について講演した。

ワークショップでは合計38編の最新研究論文が発表されたが、既存のXAIアルゴリズムの性能を改善した新しいアルゴリズム、大型言語モデル(Large Language Model、略称LLM)など生成型AIモデルに対する解析性および信頼性提供技術、ドメイン別XAI適用事例の研究内容を扱った。

この中で最優秀論文賞は「物体レベルの視覚プロンプトを活用した効率的な大型言語視覚モデル」(イ・ビョングァン、パク・ボムチャン、キム・チェウォン、ノ・ヨンマン(以上KAIST))が受賞した。この研究では、大型言語視覚モデル(LLVM)でモデルサイズを拡大するのではなく、オブジェクトレベルの画像を理解できる新しい技術を導入することで、AIモデルのパフォーマンス向上だけでなく、AIモデルの意思決定プロセスの解釈可能性を大きく高めたという点が認められた。

イベントを主管したKAIST説明可能人工知能研究センターセンター長チェ・ジェシク教授(インイジ代表取締役)は、「今回のワークショップがAI技術の透明性と信頼性を向上させるのに重要な技術である説明可能人工知能(XAI)に関する最新研究動向を交流し、様々な産業分野にXAI技術が適用されることに寄与することを願う」と明らかにした。

一方、今回の行事は、過期正統部情報通信企画評価院の「人中心人工知能核心源泉技術開発事業」(課題名:ユーザーカスタマイズ型プラグアンドプレイ方式の説明可能性提供技術開発)支援として開催された。この日のイベントで発表された研究技術などの詳細は、ワークショップのホームページを参照してください。


이전 글이 없습니다.
다음 글이 없습니다.