close
PRESS
AIデータの出処を説明し、著作権の対価を払う日が来るだろう
DATE 2023.10.03VIEW 1,078

AIタの出明し、著作対価う日がるだろう
(AIパワプル)明可能人工知能 先者チェジェシクKAIST


最初はみんな彼を「詐欺師」と呼んだ。明可能な人工知能の念を初めて話した2016年には、みんな私を詐欺師かと思っていた。」チェジェシク(45)技術院(KAIST)、キムジェチョルAI授が言う時とは、李セドル九段に勝ったAlphaGoの能力がまるで「魔術」のように見えていた時代だ。人工知能の意思決定に影響が出る要因を人が理解できるよう一つ一つはっきりさせて「明可能な」態を作ろうとする彼の提案に、この分野の威でさえも不可能としていた。

あれから7年。まだまだ遠いと思っていた未に彼が堂と立っている。6年目のKAIST明可能人工知能(eXplainable AI, XAI)究センタを導くチェ授はこの分野での最高レベルの門家としてえられている。昨年末、生成AIChatGPT」の嵐をきおこしながら皆が「異常な結果値()」を目するようになり、疑問と不安が大きくなっていった。どのデタを習し、なぜこの答えを出したのか、「明可能な人工知能」を望むがだんだん大きくなった。

オスンヨンKB金融傘下金融AIセンタ長は次の「人工知能パワプル」インタビュ候補に推薦したチェジェシク授を去る19日京畿道城南市KAIST城南究センタにて際にった。「人間に利をもたらす人工知能」という意味の「人利知INEEJI」という企業を起こした彼の机のには「忍」という字が貼られていた。究と経営を同時にこなす彼を見て、社員たちは「いつ休んでいるのかわからない」(INEEJI社員 シンヘジンさん)と言う。

授兼経営者」として彼は「明が不可能な人工知能は不安で、人間が遠ざけるだろう」とし、「人工知能の市場は成熟し巨大言語モデルが大金をもたらすとしたら、出が書いてあるデタ著作者たちに対価うようになるだろう」との見通しだ。

 

詐欺師と言われても信じた「明の可能性」

明可能な人工知能とは何ぞや?

「自律走行車を例に見てみましょう。前方の道の上に段ボルと子供がもし見えたら?自律走行システムはその段ボルをその時にきちんと見できるのか、わからないのなら不安でこれ以上運を任せられない。ブレキ制動距離の中のモニタに段ボルの箱が色に表示され、人工知能が見たという事が私に確認させてくれる技術があればこそ安心できる。このように人工知能の意思決定に影響をもたらす要素を人間が理解できる方法で見せて、「明可能な」態にしよう、というのが明可能人工知能なのです。」

 

明が可能なら安心できるという事?

「人が失敗するように人工知能も失敗することもある。人工知能は100%完璧だというのは間違っている。人工知能はこの意思決定をなぜしたのか連して答えさせれば、いつどんな部分で人工知能を信じ任せられるのかいつ人間が先に手を加えなければいけないのかを分けて決定できるようになる。明可能な人工知能技術は人工知能を信できるようになるのに寄している。

 

際に適用されているのか?

明可能な人工知能は習デタの問題、著作問題、倫理問題という課題もあるが、際の産業の現場で適用できる技術でもある。自律走行、スマト工場等いくつもの産業分野に適用されている。POSCOポハン製所の例を見ると、自動化工程に明可能人工知能の技術を使い、機械の度が上がる事を予測しセンサが反するのを見せると、作業者たちは理解し受け入れた。その反面、なんの明もなしにセンサが突然作動するとしたら作業者たちは手動の操業をすることになる。この先多な産業分野で人工知能技術にする信性と透明性を保つため共に提供されるべきものは、やはり明可能人工知能技術だ。

 

倫理、哲学的な概念だと思ったのに、技術の話ですね。

説明可能人工知能使用者は大きく分けて3種類だ。人工知能開発者と使用者、そして法律を作り影響を評価する規制当局だ。学習データ使用や著作権「個人情報」倫理問題があり、人工知能を規制し検証する法律の領域があり、技術的に人工知能の問題解決して説明可能な状態に作る開発者の領域がある。人工知能の学習と推論に影響を与える要素が何なのか正確に把握し説明問題がある場合は人工知能を一つ一つ押してみてどの部分を間違えたのか探して直すところまでが説明可能人工知能の領域だ。」

 

最近超巨大人工知能モデルは学習データの出処を明かさないですが、学習用に使われるコンテンツの著作権問題を解決できるのか?

「チャットGPTのような大型言語モデル( Large Language Model巨大なデータを学習し人間の言語を理解し生成するよう訓練された人工知能)の場合、著作権者や学習データの問題が大きい。今現在 関連する研究をしているが、一番難しいことはどこまで人工知能の 結果値の源泉ソースを明かすかだ。

ひとつの単語またはひと段落またはひとつの文章の中心にどんなことを基準とするか?また問題は現在の学習データには該当データどこから来たのかがタグ(最後の印)がよくできていないことだ。ハンギョレ新聞のある記者が書いた記事とされる情報がついてさえいればあちで出処を把握したいかを支払うことができるのに、現在はタグなしで各自ウォーターマークを付けたらどうかと思う。」

 

ニュースが学習用無料データとしては活用されなく言論業界は悩みが多い.変えることはできるか?

超巨大人工知能モデルによりビッグデータが稼ぎ出せば、源泉ソースの著作権を無視する態度に対して大衆が変だと思うことだろう。特に韓国人は「人は天だ」という考えに基づき主体性が高く自身のデータに関心が高い。一番いいサービスの一つは「配達の民族」でリアルタイムに自分が注文したものががどこにあるのかわかる機能だと言われる。私と関連がある何かを見るのもいいが、もちろん私と関連するデータがどこに行き何をするのに使われるのかに対する関心も多い。対価をすでに支払い、話をしなくても済む著作権は除外し、ある程度までの協議の線引きをすることだ。人工知能の市場は成長していて巨大言語モデルが稼ぎ出すならば出処が書かれているデータの著作権者たちに対価支払うことになるだろう。ユーチューブ方式でたくさん使われているソース{出処}に対価をさらに支払う方式になるかもしれない。

 

予測人工知能、私の眼には「大ヒット」

人工知能分野にいつから魅せられたのか?

1997年大学(ソウル大学コンピューター工学)に通っていたころから。あの当時は人工知能系の講義が開設されていたり学生たちがそちらの関心があったりする雰囲気ではなかった。勉強ができる学生たちは皆、無線通信のほうへ行く時代だった。私は人工知能分野に興味を持ち、ロボット研究団に就職してから2004年にアメリカ留学をして本格的に勉強をした。私があまり流行に乗らないタイプだ。当時流行を追いかけていたら、今リードできていなかっただろう。」

現在「人工知能パワーピープル」の同期たちは多いと聞いた

「人工知能分野が開かれたときに信頼して何かを聞ける同期、同世代たちは頼もしい。ネイバークラウドのハ ジョンウAIイノベーションセンター長と、ソン ナクホハイパースケールAI技術統括、韓国人がシリコンバレーで創業したスタートアップの中で初のユニコーン(企業価値1兆ウォン以上のビジネス)になったモロッコのアン イクジン代表などが学校の同期だ。私を推薦にてくれたオ スニョン㎅金融傘下金融AIセンター長、kaistのジュ ジェゴル教授、シン ジヌ教授も同門でお互いアドバイスしあっている。

会社創業した.

博士論文「大型確率モデルでの推論」研究してから人工知能予測モデルをってきたやってみて産業を高度化しデジタルに転換する過程で適用したら大ヒットだろうな、未来が明るくなりそうだと思った。でも人々は信じてくれず2019年に一人でINEEJIを立ち上げた。人工知能のほうへ参入したのだ。最近lgが主催したカンファレンスへ行き、「INEEJIが人工知能ベース予測最適化分野で国内最高の企業」という評価をもらった。

INEEJIはどんな会社?

INEEJIは人間に利をもたらす人工知能という意味です。世界で一番正確な人工知能予測サービスを提供する企業目標を掲げている。産業用工程最適化、説明可能人工知能ソリューション等を開発し、国内の化学、半導体、発電所の現場で適用されている。今まで55億ウォン規模のフリーシリーズA投資を獲得、日本市場でもいい反応をいただいている。

予測人工知能にはおかしな答えが出るという幻覚(ハルシネーション)現象はないか?

予測モデルも間違えることがある。巨大言語モデルが間違えると 事実じゃないことを導く「ハルシネーション」現象になり、予測モデルでは予測を間違えてしまう。そのため予測モデルはどんな根拠で予測したのかよく説明し使用者の判断を助けることが重要だ。私の基準では人工知能を大きく分けると「ミッションクリティカル(高危険)したものではないと区分できる。日常で使われる人工知能スピーカーやチャットGPTはいったんミッションクリティカルではないが、自立走行、製造、医療、金融、言論などとは違う。間違ったり偏った結果がそのまま反映されてはいけない。

巨大言語モデルの幻覚現象はどうやって理解すればいいか

ハルシネーションも3つほどのタイプに分けられます。まずは「世宗大王がMacBookを投げた事件」のように時間と空間上一緒にいない、一緒にいたらいけない組み合わせを、まるで一緒にいたかのように話す場合だ。次は重い表現で使われた時、つぎはぎで寄せ集める現象だ。チャットGPTが「ガスライティング」に脆弱だという話があるが、実際の内容が合っていようがいまいが、使用者が好きな話を千々けてする傾向がある。

 

教授+経営者 の人工知能市場の展望

超巨大人工知能モデルを生み出したビッグテクたちの中でb2b市場において熾烈な競争が始まっている。メタのラマのように無料で公開したモデルもあり、市場はきちんと作られるのか疑問だ。

超大規模人工知能モデルを開発した企業たちはメタのように軽量で作り無料で出してしまう人工知能モデルがあって心配だろう。

しかしほとんどの主要顧客(エンドユーザー)が使うソフトウェアは有料で、1等の技術についていきたいところは公開ソフトウェアにしてしまっているようだ。事実、ビッグデータがどれほどの額を使って作られたのか顧客の立場では重要ではない。顧客は効用性で判断する。チャットGPTをだしたオープンAIの最高経営者サム アルトマンの言葉で称えられる。「チャットGPTは間違えることもある。しかし私たちはこれを続けて改善する。チャットGPTを使いながらいやだという人を見たことがない。多分生産性が上がるよ?超巨大人工知能技術は個人の短い時間にもっとたくさんの多くのことをできるようにする、ということに確かに寄与する業務能力のベースラインが上がるということだ。企業はここに費用を充てる。その時安定性、速度、バックアップ等の考えをすると有料市場が開かれると私は思う。

 

ディープラーニング(人間の頭脳のようにデータを処理できるようコンピューターに教える方式)技術が飛躍したグーグルも間違えた答えの危険(リスク)のため、まだ世に出していない汎用巨大言語モデルをオープンAIが一番先に出したことは能力があってのことだろうか?それともクレイジーだからだろうか?

二つあります。チャットGPTがオープンAIから出たとき、グーグルは技術力で劣ってしまった。グーグルはお金をたくさん稼ぎ、個人情報、倫理などの問題に対するフィルタリングが強くなりながら 優先順位で技術が引けを取ってしまったという面がある。オープンai は幻覚現象問題もあり、倫理的ではない部分も少しあり、そして一番重要な著作権の問題があるのにもかかわらずいったんチャットGPTを出した。マイクロソフトが投資したが、彼らは直接出せてないなかっただろう。また違う面では専門性の問題だ。オープンAIだけではなくテスラの場合もそうだが職人精神が需要だ。大企業に行き適応しようとしてaをしたくても言われた通りにbをするのではなく、「私がした研究をするためここで仕事するんだ」という精神で仕事をすることだ。」

 

政府は人工知能法案を通じて高レベルの危険な人工知能規制を準備中だ。予測モデル事業をすればこのような規制の計画が障害になるのではないか?

そうではない。法案があるにしろないにしろ私は人々に必要な部分を作る仕事をしていると考える。人工知能を上手に作ることも重要だが、安心して使うことができるようサービスの提供者は引き続きそのような方向に拡張していくべきだと思う。

 

次のインタビュイーを推薦してほしい。

 “人工知能の活性化のためケイティー(KT)内外で均衡ある提案と寄与しているべ・スンミン ケイティー(KT)エイアイツーエックスエル(AI2XL)の研究所長と 世界的企業を作ったモロコ(MOLOCO)のアン·イクジン代表を推薦する。”

이전 글이 없습니다.
다음 글이 없습니다.