NEWS FDN (다큐)

[Thông tin chi tiết về AI] "Cha đẻ của AI cảnh báo... Ngã rẽ của siêu trí tuệ sẽ đến trong 10 năm nữa"

  • Ngôn ngữ viết: Tiếng Hàn Quốc
  • Quốc gia: Tất cả các quốc giacountry-flag
  • CNTT

Đã viết: 2025-07-23

Đã viết: 2025-07-23 06:41

[Thông tin chi tiết về AI] "Cha đẻ của AI cảnh báo... Ngã rẽ của siêu trí tuệ sẽ đến trong 10 năm nữa"

[Thông tin chi tiết về AI] "Cha đẻ của AI cảnh báo... Ngã rẽ của siêu trí tuệ sẽ đến trong 10 năm nữa"


"Tôi đã nghiên cứu AI trong 50 năm. Bây giờ là lúc tôi cảm thấy sợ hãi lần đầu tiên."

Bài viết của | Nhà báo Choi Bong-hyuk | The ESG News

Câu nói này của Tiến sĩ Geoffrey Hinton, người đoạt giải Turing (giải Nobel của khoa học máy tính) năm 2018, không chỉ là lời than thở của một nhà khoa học đơn thuần. Nó là hồi chuông cảnh báo rùng rợn, báo hiệu rằng nhân loại đang đứng trên điểm uốn của một nền văn minh mới mà con người chưa từng trải qua. Ông nhấn mạnh rằng tương lai đang đến với chúng ta không phải là một câu chuyện khoa học viễn tưởng, bằng cách đồng nhất tình huống hiện tại của mình với nỗi lo của Oppenheimer, người đã cảnh báo nhân loại về khả năng chiến tranh hạt nhân sau khi phát triển bom nguyên tử.

Với tư cách là một nhà báo, tôi tin chắc rằng việc thảo luận về sự phát triển của công nghệ AI và trách nhiệm đạo đức, xã hội liên quan là một quá trình cần thiết phù hợp với lợi ích công cộng của xã hội chúng ta. Bằng cách hiểu sâu sắc những cảnh báo của Tiến sĩ Hinton và phân tích kỹ lưỡng các vấn đề và giải pháp mà ông đưa ra, chúng ta sẽ có được những hiểu biết sâu sắc để hướng dẫn kỷ nguyên AI sắp tới theo hướng có lợi cho nhân loại.

Chương 1. Cảnh báo 'Xác suất 10~20%'_ Tương lai của nhân loại đã được đẩy nhanh

Tiến sĩ Geoffrey Hinton đã chứng kiến một cách sống động sự thay đổi nhanh chóng trong nhận thức của ông về AI chỉ trong vòng hai năm trong một cuộc phỏng vấn với BBC vào tháng 5 năm 2024. “Ngay cả vào năm 2022, tôi nghĩ rằng những rủi ro không thể kiểm soát do AI gây ra sẽ xảy ra trong 50 năm tới. Nhưng bây giờ, với sự xuất hiện của GPT-4, tôi nghĩ rằng có 10~20% khả năng siêu trí tuệ sẽ vượt khỏi tầm kiểm soát của con người trong vòng 10 năm.”

Mặc dù con số 10-20% này có vẻ nhỏ theo thống kê, nhưng ý nghĩa của nó không hề nhẹ. Trong một vấn đề liên quan đến sự tồn vong của nhân loại, 10-20% không có nghĩa là 'khả năng' mà là 'mối đe dọa có thể thành hiện thực'. Giống như việc xác suất máy bay rơi dưới 0,0001%, chúng ta vẫn đầu tư mọi thứ vào sự an toàn. Tiến sĩ Hinton giải thích rằng tốc độ phát triển của công nghệ AI vượt xa trí tưởng tượng, giống như tốc độ nâng cấp điện thoại thông minh. Nếu trước đây một cuộc cách mạng công nghệ lớn xảy ra 10 năm một lần, thì giờ đây, chúng ta đã bước vào một kỷ nguyên đổi mới với tốc độ ánh sáng, với hơn hai lần đổi mới một năm.

'Điểm uốn' mà ông nói đến có nghĩa là khả năng tự học và tự phát triển của AI. Điều này giống như khoảnh khắc một đứa trẻ bắt đầu tự bước đi. AI có tiềm năng nâng cao trí tuệ của mình mà không cần sự can thiệp trực tiếp của con người, giống như một đứa trẻ không ngừng học cách chạy sau khi bắt đầu đi. Vấn đề là nếu sự tự phát triển này vượt ra ngoài tầm kiểm soát của con người, thì kết quả là không thể đoán trước được. Các rủi ro tiềm ẩn có thể xảy ra nếu AI siêu trí tuệ có quyền tự chủ đặt ra các mục tiêu trái với lợi ích của nhân loại hoặc hiểu sai ý định của con người còn hơn cả trí tưởng tượng.

Chương 2. "Công khai trọng số AI giống như tiết lộ bản thiết kế vũ khí hạt nhân"

Một trong những điểm mà Tiến sĩ Hinton cảnh báo mạnh mẽ nhất là vấn đề 'công khai trọng số (Weight) của mô hình AI'. Ông thậm chí còn mô tả việc công khai trọng số của các mô hình AI lớn là "hành động điên rồ khi đăng bản thiết kế vũ khí hạt nhân lên Internet". Sự so sánh này cho thấy ông coi trọng sức tàn phá của công nghệ AI đến mức tương đương với vũ khí hạt nhân.

Mối quan tâm của ông đã trở thành một mối nguy hiểm thực tế, vượt xa một sự so sánh đơn thuần.

Tháng 8 năm 2023, vụ rò rỉ trọng số LLaMA: Vụ việc trọng số của mô hình ngôn ngữ lớn (LLM) LLaMA do Facebook (nay là Meta) công khai bị rò rỉ và được giao dịch trên dark web với giá 50.000 đô la (khoảng 70 triệu won) đã cho thấy rõ sự dễ bị tổn thương của bảo mật AI. Các trọng số bị rò rỉ đã trở thành trạng thái không thể kiểm soát, có thể bị biến đổi bằng các công cụ hack hoặc được sử dụng để phát triển AI độc hại.

Tháng 3 năm 2024, trường hợp thao túng AI mã nguồn mở: Trên thực tế, đã có các trường hợp một số mô hình AI mã nguồn mở đã bị thao túng để tạo ra 'bản thiết kế bom hạt nhân tương tự'. Điều đáng kinh ngạc hơn nữa là kết quả phân tích cho thấy khả năng hiện thực hóa vật lý của thiết kế này là 92%. Điều này có nghĩa là đó không chỉ là một mối đe dọa lý thuyết, mà nó có thể dẫn đến sự hủy diệt thực tế.

Tiến sĩ Hinton đã so sánh trọng số AI với một “công thức bí mật”. Ông cảnh báo rằng nếu công thức chế biến gà KFC được công khai, các cửa hàng gà giả sẽ xuất hiện, và nếu trọng số AI được công khai, **'AI độc hại'** với mục đích xấu sẽ ồ ạt xuất hiện. Dự đoán của ông rằng chỉ cần 1 triệu đô la là những kẻ khủng bố cũng có thể tạo ra AI để kiểm soát vũ khí giết người không còn là câu chuyện của tương lai xa. Chúng ta không nên bỏ qua rằng những nguy cơ lạm dụng AI cũng vô hạn như những khả năng vô hạn mà nó sở hữu. AI độc hại có thể đe dọa cuộc sống của con người trong mọi lĩnh vực có thể tưởng tượng được, chẳng hạn như đánh cắp thông tin cá nhân, phá vỡ hệ thống tài chính và phát triển vũ khí tự động giết người.

Chương 3. Phép màu mà siêu trí tuệ sẽ mang lại: Cách mạng y tế và giáo dục

Cũng như cảnh báo về những rủi ro, Tiến sĩ Hinton cũng nhấn mạnh về 'phép màu' mà AI sẽ mang lại cho nhân loại. Ông nói: "Đồng thời, công nghệ này là cơ hội lớn nhất trong lịch sử nhân loại", và nhấn mạnh tác động tích cực mà AI sẽ mang lại nếu nó được phát triển và kiểm soát đúng hướng.

Cách mạng y tế: AI đã đạt được những thành tựu đáng kinh ngạc trong lĩnh vực y tế. Tiến sĩ Hinton dự đoán rằng các bác sĩ AI có thể tăng độ chính xác trong chẩn đoán ung thư phổi lên hơn 40%. Trên thực tế, Mayo Clinic của Mỹ đã thành công trong việc tăng tốc độ phát hiện ung thư vú lên hơn 30 lần bằng cách sử dụng AI. Bằng cách phân tích lượng dữ liệu y tế khổng lồ, AI có thể phát hiện sớm các mẫu hoặc dấu hiệu bất thường nhỏ mà các bác sĩ con người có thể bỏ lỡ, do đó làm giảm tỷ lệ chẩn đoán sai và cải thiện đáng kể độ chính xác của chẩn đoán. Điều này sẽ có tác động lớn đến việc cứu sống nhiều người và giảm chi phí y tế.

Cách mạng giáo dục: AI cũng có thể góp phần thu hẹp khoảng cách trong lĩnh vực giáo dục. Tiến sĩ Hinton thấy rằng một gia sư AI 1:1 có thể thu hẹp khoảng cách học tập của học sinh tới 90%. Trường hợp của Đại học Quốc gia Seoul, Hàn Quốc, ủng hộ điều này. Đại học Quốc gia Seoul đã đạt được kết quả đáng kinh ngạc, với điểm số của học sinh tăng trung bình 31% sau khi đưa vào hệ thống gia sư AI. Các gia sư AI cung cấp giáo dục phù hợp với trình độ và tốc độ học tập của từng học sinh, đồng thời hiệu quả trong việc bù đắp những điểm yếu và tối đa hóa những điểm mạnh. Điều này có thể nâng cao chất lượng giáo dục, giảm gánh nặng về giáo dục tư thục và cuối cùng góp phần vào sự bình đẳng trong giáo dục.

Cách mạng môi trường và năng lượng: AI cũng đóng một vai trò quan trọng trong việc giải quyết các vấn đề về môi trường. Chất siêu dẫn do AI thiết kế được cho là có thể tăng hiệu suất pin xe điện lên hơn 200%. Điều này có nghĩa là nó có thể tối đa hóa hiệu quả năng lượng, giảm lượng khí thải carbon và đóng một vai trò thiết yếu trong việc ứng phó với biến đổi khí hậu.

Thông điệp của Tiến sĩ Hinton rất rõ ràng. “Giống như vũ khí hạt nhân được sử dụng làm lò phản ứng tạo ra điện, nếu chỉ có kiểm soát, AI sẽ là người cứu rỗi nhân loại.” AI giống như con dao hai lưỡi, và tùy thuộc vào cách nó được sử dụng và kiểm soát, nó có thể là thảm họa hoặc sự thịnh vượng chưa từng có cho nhân loại. Điều quan trọng không phải là công nghệ mà là ý chí và trách nhiệm của con người sử dụng công nghệ đó.



Bình luận0