NEWS FDN (다큐)

[AIインサイト] "AIのゴッドファーザーが警告…10年以内に迫る超知能の岐路"

作成: 2025-07-23

作成: 2025-07-23 06:41

[AIインサイト] "AIのゴッドファーザーが警告…10年以内に迫る超知能の岐路"

[AIインサイト] "AIのゴッドファーザーが警告…10年以内に迫る超知能の岐路"


"私は50年間AIを研究してきました。今が初めて恐怖を感じる瞬間です。"

文 ㅣ チェ・ボンヒョク コラムニスト ㅣ  ザ・イーエスジーニュース

2018年のチューリング賞(コンピュータ科学界のノーベル賞)受賞者であるジェフリー・ヒントン博士のこの一言は、単なる科学者の愚痴ではない。これは、人類がこれまで経験したことのない新しい文明の変曲点に立っていることを知らせる不気味な警告灯である。彼はまるで原爆開発後、人類に核戦争の可能性を警告したオッペンハイマーの心境と自身の現在の状況を同一視し、私たちに迫り来る未来が決して空想科学の中の話ではないことを力説する。

チェ・ボンヒョクコラムニストとして、私はこのようなAI技術の発展と、それに伴う倫理的、社会的な責任に関する議論が、私たちの社会の公共の利益に合致する必須の過程だと確信している。ヒントン博士の警告を深く理解し、彼が提示する問題意識と解決策を綿密に分析することによって、私たちは来るAI時代を人類にとって有益な方向に導いていくことができる洞察力を得るだろう。

第1章。 「10~20%確率」の警告_ 時計が早まった人類の未来

ジェフリー・ヒントン博士は、2024年5月にBBCとのインタビューで、AIに対する自身の認識がわずか2年間でいかに急変したかを鮮やかに証言した。「2022年まで私は、AIによる制御不能な危険を50年後のことと考えていました。しかし、GPT-4が登場した今、10年以内に超知能が人類の制御から外れる確率は10~20%に達すると見ています。」

この1020%という数値は、統計的には小さく見えるかもしれないが、その意味は決して軽くはない。人類の存続に関わる問題において、1020%は「可能性」ではなく「現実化する可能性のある脅威」を意味する。まるで航空機の墜落確率が0.0001%未満であっても、私たちは安全にすべてを投資するのと同じだ。ヒントン博士は、AI技術の発展速度がまるでスマートフォンのアップグレード速度のように想像を絶すると説明する。過去には技術的大激変が10年に一度のペースで起こっていたとすれば、今では1年に2回以上の革新が起こる光速の時代に突入した。

彼が言う「変曲点」とは、まさにAIが自ら学習し発展する能力を意味する。これはまるで赤ちゃんが自力でよちよち歩き始める瞬間と同じだ。一度歩き始めた赤ちゃんは止まることなく、自ら走る方法を学ぶように、AIは人間の直接的な介入なしにも、知能を高度化させる潜在力を備えるようになった。問題は、このような自己発展が人間の制御範囲から外れた場合、その結果が予測不可能であるという点だ。自律性を持った超知能AIが人類の利益と相反する目標を設定したり、あるいは人間の意図を誤解した場合に発生する可能性のある潜在的危険は、想像以上である。

第2章。「AIの重みの公開は核兵器の設計図の流出と同じ」

ヒントン博士が最も強く警告する点の一つは、「AIモデルの重み(Weight)の公開」の問題だ。彼は、大型AIモデルの重みをオープンソースで公開する行為を、「核兵器の設計図をインターネットに公開するような狂気の沙汰」とまで表現した。この比喩は、AI技術が持つ破壊力を核兵器に比肩するほど深刻に見ていることを示している。

彼の懸念は、単なる比喩を超えて現実化した危険としてすでに現れている。

2023年8月、LLaMAの重み流出事件:フェイスブック(現メタ)が公開した大型言語モデル(LLM)ラマ(LLaMA)の重みが流出し、ダークウェブで5万ドル(約7000万ウォン)で取引された事件は、AIセキュリティの脆弱性を如実に露呈した。流出した重みは、ハッキングツールに改変されたり、悪性AIの開発に活用されるなど、制御不可能な状態になった。

2024年3月、オープンソースAI操作事例:実際に特定のオープンソースAIモデルが操作され、「類似核爆弾設計図」を生成する事例まで報告された。さらに衝撃的なのは、当該設計図の物理的実現可能性が92%に達するという分析結果だった。これは、理論的な脅威ではなく、現実で実際の破壊につながる可能性があることを示唆する。

ヒントン博士はAIの重みを「秘密のレシピ」に例えた。KFCのチキン調理法が公開されれば、ニセチキン店が乱立するように、AIの重みが公開されれば、悪意的な目的を持った**「悪性AI」**がむやみに溢れ出すという警告だ。100万ドルさえあれば、テロリストも殺傷兵器制御AIを作ることができる時代が来るだろうという彼の予測は、もはや遠い未来の話ではない。AIが持つ無限の可能性と同じくらい、その誤用の危険性も無限であるという点を看過してはならない。個人情報窃取、金融システム攪乱、自律殺傷兵器開発など、悪性AIは想像できるすべての領域で人類の生活を脅かす可能性がある。

第3章。超知能がもたらす奇跡:医療・教育大革命

危険に対する警告と同じくらい、ヒントン博士はAIが人類に与える「奇跡」についても強調した。彼は「同時に、この技術は人類史上最大のチャンスです」と述べ、AIが正しい方向に開発され、制御される場合に起こる肯定的な波及効果を力説する。

医療革命:AIは医療分野ですでに驚くべき成果を上げている。ヒントン博士は、AI医師が肺がんの診断精度を40%以上高めることができると予測した。実際に、米国メイヨー・クリニックは、AIを活用して乳がんの発見速度を30倍以上高めることに成功した。AIは、膨大な医療データを分析し、人間の医師が見落とす可能性のある微細なパターンや異常な兆候を早期に検出することで、誤診率を減らし、診断の正確性を飛躍的に向上させることができる。これは、数多くの命を救い、医療費を削減する上で多大な影響を与えるだろう。

教育革命:AIは教育分野の格差解消にも貢献できる。ヒントン博士は、1対1のAIチューターが学生の学力格差を90%まで解消できると見た。韓国ソウル大学の事例がこれを裏付けている。ソウル大は、AIチュータリングシステム導入後、学生の成績が平均31%上昇するという驚くべき結果を得た。AIチューターは、学生個々人の学習レベルと速度に合わせて、 맞춤型教育(맞춤형教育)を提供し、弱点を補完し、強みを最大限に引き出すのに効果的である。これは、教育の質を高め、私教育の負担を減らし、究極的には教育の平等を実現することに貢献できる。

環境およびエネルギー革命:AIは環境問題の解決にも重要な役割を果たす。AIが設計した超伝導体は、電気自動車のバッテリー効率を200%以上高めることができるという。これは、エネルギー効率を最大化し、炭素排出量を減らし、気候変動への対応に不可欠な役割を果たすことを意味する。

ヒントン博士のメッセージは明確だ。「核兵器が電気を作る原子炉に使われるように、AIも制御さえできれば人類の救世主になります。」AIは両刃の剣であり、どのように活用し、制御するかに応じて、人類に災厄をもたらすことも、あるいは前例のない繁栄をもたらすこともできるということだ。重要なのは、技術そのものではなく、その技術を扱う人間の意志と責任感である。



コメント0