close
PRESS
チェ・ジェシク KAIST教授、キム・ジェチョルAI大学院教授が見るAIの未来
DATE 2024.03.27VIEW 40

확대이미지

 

去る3月13日は人工知能(AI)の発展に対する期待と懸念を同時に確認した日だった。米国では人間と対話し、状況に合った行動をとるAIロボットが姿を現したが、欧州連合(EU)は世界初にAI技術規制法案を通過させた。 

この日、米国のロボット開発スタートアップ「フィギュアAI」は、チャットGPT開発会社である「オープンAI」と協業して作ったロボット「フィギュア01」の映像を公開した。人間がロボットに「今何が見えるか」と尋ねると、フィギュア01は「テーブル中央の皿の上に赤いリンゴがあり、テーブルの上に手をのせて立っているあなたが見える」と答える。人間が「何を食べることができるか」と言うと「じゃあ」とりんごを拾って渡す。今の行動について説明してもらうと、ロボットは「りんごが食卓で食べられる唯一の食べ物だから差し上げた」と話す。人間と自由に会話を交わすAIロボットが本当に登場したのだろうか。

チェ・ジェシクのKAISTキム・ジェチョルAI大学院教授は「ロボットが物を拾うのはもともとうまくいく」とし「これまでの専門家がプログラミング言語で指示を下すとロボットが作業を遂行する方式だったが、今は自然言語(人間が日常で使う言語)で指示ができてすぐに見ることができるということに意味がある」と評価した。崔教授はKAIST XAI(説明可能な人工知能)研究センター長であり、国内のXAI代表企業「インイジ」の代表理事だ。去る3月19日、京畿道城南市のKAISTキム・ジェチョルAI大学院城南研究センターで崔教授に会った。

- フィギュア01を見ると、近いうちに人工知能が人間の知能を上回るのではないかと懸念が上がる。「新しいAIが出てくると、人々は「やるべきではない?」する。ところが時間が経つと「これもダメ、それもダメだ」と言う。期待が集まる状況では、実体を知ることが重要だ。ビジネス的な側面から見ると、AIも関心を引かなければ投資を受ける。だから実際のAIの能力がどこまでなのかを知るのに時間がかかる。人工知能が人間の知能を上回る起点を「特異点」という。特異点が到来するということは、汎用人工知能(AGI)が来るということを意味する。 AIロボットがゴミを拾うことができるから、自宅でロボットが皿洗いを自動的にできるようになったと言えるだろうか。 AGIについて心配する前に、これまでに出てきたAIモデルの能力値を正確に把握するのが優先だ。すぐにAGIが現れるという懸念は時期尚早だと思う。

ジェンセンファン・エンビディアCEOは、5年以内に人間の水準を上回るAGI時代が出現すると予測した。「もし5年以内にAGIに近いものが作られても「これくらいなら人間ほどスマートか」と言った時、「いや、今は不足している」という話が出てくる。 AGIは特化された1つの分野だけがうまくいくのではなく、すべての分野を上手にしなければならない。ある分野については上手くなる程度を評価することができますが、複数の分野をすべて上手くすることをどのような基準で見ることができるだろうか。 AGIの基準は明確に定義されていません。」

- AGIが出ても、人間の欲がより良いAGIを作ろうとするという意味か。「AGIが何であるかについて最初に考えてみましょう。学習したリストにある質問を投げたときに言葉になる答えをするが、学習していない質問に対しては答えられなければAGIとはいえない。新しい質問についても推論して答えるならば、私たちはAGIだと思います。しかし、AIが人が投げることができるすべての質問のリストを学んだとしたら? AGIと同じだと感じる。ではAIがすべてを覚えればいいと思うが、暗記はとても面倒だ。記憶装置がより必要とされるからである。原理を理解すれば、全部覚えなくてもよい。今は多くの情報を覚えて似たような質問に対する答えをもたらす方法なら、AGIは「理解」する方向に行くのだ」

- AIはどのくらい発展したか。「人間の知能を100という時、30~40までは来たようだ。もちろん、人工知能が100よりも発展する可能性もある。フィギュア01は、目的の物体を正確に認識し、その物体だけを選んで家は技術を持っていますが、これは現場ですでに多く使われている。ここにコードを修正する必要なく、人間の言語を通じて指示を出すことができるというのが大きな発展だ。昨年オープンAIの「サム・オルトマン解任事態」の時、内部的に発見されたのが「見えない問題なのにAIがよく解けた」ということだ。 AIの学習データに偶然入った問題を解いたことと、同様の問題をすべて消したのにも推論して解決したのは途方もない車だ。ただし、同様の問題をすべて消去できなかったこともある。

- 今はAIに対する規制が必要な時点なのか、それとも発展させるべき時なのか。「半分のようだ。私はAIの発展がもっと必要だと思っている人だが、AIを安全に活用できるかどうかの検証と研究は常に行わなければならないと思う。 AIを安全にコントロールできるのか、何を学習したのか、私たちがよく見ることができるのかを確認する過程は重要だ。例えば、私たちが脳をMRIでスキャンしてみなければ、どの部分が問題が生じて馬がアヌルになったかなどを説明することができる。 AIも同様に内部を覗くことができなければ問題になる部分を探したり修正できる。

去る3月13日に可決された「AI規制法」は、EU27カ国長官が来る4月最終承認すれば2026年から全面施行される。法案によると、EUはAI活用分野を「許容できないリスク」「高いリスク」「制限されたリスク」「低リスク」など計4段階の等級に分けて差分規制する。医療・教育をはじめとする公共サービスや選挙・自律走行などは「高いリスク」に分類され、個人の特性・行動に関連するデータで個別スコアを付ける「ソーシャルスコアリング」やAIを活用したリアルタイム遠隔生体認識識別システムは「許容できない危険」で活用が源泉禁止される。また、EUはチャットGPTのような生成型AIを開発する企業に「透明性義務」を付与し、EU著作権法を必ず遵守し、AIの学習過程に使用したコンテンツを明示するようにした。法に違反した場合、全世界の売上の1.5%から最大7%に相当する課徴金が課される。

- EUはなぜ'AI規制法'を作ったのか。「AIを使用する過程で起こり得る副作用から内部国民を保護するためだ。 AIに爆弾を作る方法や薬物を求める方法を尋ねたときに「知らせることができない」か「知らない」という答えが出なければならないのに返して質問をしたら、方法を知らせるのが代表的な副作用事例だ。規制自体は、新しい技術を作成するのに役立たないかもしれません。 EU外への撮影現象も発生する可能性があります。簡単に考えれば、規制が強いEUでAI関連会社を作るよりは、規制が少ない国に行こうとしないだろうか」

- ジョーバイデン米国大統領が昨年10月「AI行政命令」を発表したが、米国もAIを規制しようとする試みで見なければならないだろうか。「AI行政命令には、AIが生成した資料に識別可能な表示(透かし)を義務的に付着する方案をはじめ、国家安全保障や経済安全保障などに危険をもたらすAIモデルテスト時に連邦政府に告知することなどが盛り込まれた。しかし、規制に集中したEUのAI規制法とは異なり、AI行政命令はAI検証体系を作ろうとする努力だと見られる。何らかの問題が発生したときに立てられる安全装置のような感じだ。

- 韓国ではAI関連規制がどこまで議論されたか。「「個人情報保護法改正案」が去る3月15日から施行された。韓国で初めて施行されるAI関連規制だと見ることができる。今は「完全に自動化された決定」について個人情報を提供した情報主体が要請すれば、意思決定がなぜ起こったのか説明しなければならない義務が生じた。例えば、入社試験でAI面接官が下した決定について、面接者が異議を申し立てた場合、脱落した理由を説明しなければならない。非常に重要な文字があるが、スパム文字に分類されて受け取れなかった場合、通信会社でなぜ詰まったのか説明しなければならない。 


이전 글이 없습니다.
다음 글이 없습니다.