NEWS FDN (다큐)

“[ข้อมูลเชิงลึกเกี่ยวกับ AI] ผู้ทรงอิทธิพลด้าน AI เตือน… ทางแยกของปัญญาเหนือมนุษย์ที่กำลังจะมาถึงภายใน 10 ปี"

สร้าง: 2025-07-23

สร้าง: 2025-07-23 06:41

“[ข้อมูลเชิงลึกเกี่ยวกับ AI] ผู้ทรงอิทธิพลด้าน AI เตือน… ทางแยกของปัญญาเหนือมนุษย์ที่กำลังจะมาถึงภายใน 10 ปี"

[ข้อมูลเชิงลึกเกี่ยวกับ AI] ผู้ทรงอิทธิพลด้าน AI เตือน… ทางแยกของปัญญาเหนือมนุษย์ที่กำลังจะมาถึงภายใน 10 ปี


"ผมได้ทำการวิจัย AI มาเป็นเวลา 50 ปี ตอนนี้เป็นครั้งแรกที่ผมรู้สึกกลัว"

ผู้เขียน | ชเวบงฮยอก คอลัมนิสต์ | The ESG News

คำพูดเพียงครั้งเดียวของดร. เจฟฟรีย์ ฮินตัน ผู้ได้รับรางวัลทูริง (รางวัลโนเบลสาขาวิทยาการคอมพิวเตอร์) ในปี 2018 ไม่ใช่แค่การบ่นของนักวิทยาศาสตร์ แต่มันคือสัญญาณเตือนภัยที่น่าสะพรึงกลัวซึ่งบ่งบอกว่ามนุษยชาติกำลังยืนอยู่ในจุดเปลี่ยนของอารยธรรมใหม่ที่เราไม่เคยสัมผัสมาก่อน เขาเน้นย้ำว่าอนาคตที่กำลังจะมาถึงสำหรับเราไม่ใช่เรื่องราวในนิยายวิทยาศาสตร์ โดยเปรียบเทียบสถานการณ์ของเขาในปัจจุบันกับความรู้สึกของออพเพนไฮเมอร์ ผู้เตือนมนุษยชาติถึงความเป็นไปได้ของสงครามนิวเคลียร์หลังจากการพัฒนาอาวุธปรมาณู

ในฐานะนักเขียนคอลัมน์ ชเวบงฮยอก ผมเชื่อมั่นว่าการอภิปรายเกี่ยวกับการพัฒนาเทคโนโลยี AI และความรับผิดชอบด้านจริยธรรมและสังคมที่ตามมานั้นเป็นกระบวนการที่จำเป็นซึ่งสอดคล้องกับผลประโยชน์สาธารณะของสังคมของเรา ด้วยการทำความเข้าใจคำเตือนของดร. ฮินตันอย่างลึกซึ้ง และการวิเคราะห์ความคิดเห็นและแนวทางแก้ไขที่เขาเสนออย่างใกล้ชิด เราจะได้รับข้อมูลเชิงลึกที่จะนำพาเราไปสู่อนาคตยุค AI ในทิศทางที่เป็นประโยชน์แก่มนุษยชาติ

บทที่ 1 'โอกาส 10~20%' คำเตือน_ อนาคตของมนุษยชาติที่รุดหน้า

ดร. เจฟฟรีย์ ฮินตันได้เป็นพยานอย่างชัดเจนถึงการเปลี่ยนแปลงอย่างรวดเร็วในการรับรู้ของเขาเกี่ยวกับ AI ในช่วงเวลาเพียงสองปีในการให้สัมภาษณ์กับ BBC ในเดือนพฤษภาคม 2024 "แม้กระทั่งในปี 2022 ผมคิดว่าความเสี่ยงที่ AI จะควบคุมไม่ได้จะเกิดขึ้นในอีก 50 ปีข้างหน้า แต่ตอนนี้ GPT-4 ได้เปิดตัว ผมคิดว่ามีโอกาส 10~20% ที่ปัญญาประดิษฐ์ระดับสุดยอดจะหลุดพ้นจากการควบคุมของมนุษย์ภายใน 10 ปี"

ตัวเลข 10~20% นี้อาจดูน้อยในเชิงสถิติ แต่มันไม่ได้มีความหมายเบาเลย ในปัญหาที่ขึ้นอยู่กับการดำรงอยู่ของมนุษยชาติ 10~20% หมายถึง 'ภัยคุกคามที่อาจเกิดขึ้นจริง' ไม่ใช่แค่ 'ความเป็นไปได้' มันเหมือนกับการที่เราร่วมลงทุนในความปลอดภัยแม้ว่าโอกาสที่เครื่องบินตกจะมีน้อยกว่า 0.0001% ดร. ฮินตันอธิบายว่าความเร็วในการพัฒนาเทคโนโลยี AI นั้นเกินจินตนาการราวกับความเร็วในการอัพเกรดสมาร์ทโฟน หากในอดีต การเปลี่ยนแปลงครั้งใหญ่ทางเทคโนโลยีเกิดขึ้นเพียงครั้งเดียวในทุกๆ 10 ปี ตอนนี้เราได้เข้าสู่ยุคแห่งความเร็วแสง ซึ่งมีการคิดค้นนวัตกรรมมากกว่าสองครั้งต่อปี

'จุดเปลี่ยน' ที่เขากล่าวถึงหมายถึงความสามารถของ AI ในการเรียนรู้และพัฒนาด้วยตัวเอง มันเหมือนกับช่วงเวลาที่ทารกเริ่มก้าวเดินด้วยตัวเอง เมื่อทารกเริ่มเดิน เขาก็จะเรียนรู้วิธีวิ่งโดยไม่หยุด ดังนั้น AI จึงมีศักยภาพในการพัฒนาสติปัญญาโดยไม่ต้องมีการแทรกแซงโดยตรงจากมนุษย์ ปัญหาคือผลลัพธ์นั้นไม่สามารถคาดเดาได้ หากการพัฒนาตนเองดังกล่าวอยู่นอกเหนือการควบคุมของมนุษย์ ความเสี่ยงที่อาจเกิดขึ้นจากการที่ AI ปัญญาประดิษฐ์ระดับสุดยอดมีเป้าหมายที่ไม่สอดคล้องกับผลประโยชน์ของมนุษยชาติ หรือเข้าใจผิดเจตนาของมนุษย์นั้นเกินกว่าที่เราจะจินตนาการได้

บทที่ 2 "การเปิดเผยน้ำหนัก AI เทียบเท่ากับการรั่วไหลของแบบแปลนอาวุธนิวเคลียร์"

หนึ่งในประเด็นที่ดร. ฮินตันเตือนอย่างรุนแรงที่สุดคือปัญหา 'การเปิดเผยน้ำหนัก (Weight) ของโมเดล AI' เขาถึงกับอธิบายการเปิดเผยน้ำหนักของโมเดล AI ขนาดใหญ่แบบโอเพนซอร์สว่า "การกระทำที่บ้าบิ่นเหมือนกับการนำแบบแปลนอาวุธนิวเคลียร์มาโพสต์บนอินเทอร์เน็ต" การเปรียบเทียบนี้แสดงให้เห็นว่าเขาถือว่าอำนาจทำลายล้างของเทคโนโลยี AI นั้นร้ายแรงมากจนเทียบได้กับอาวุธนิวเคลียร์

ความกังวลของเขาได้กลายเป็นภัยคุกคามที่กลายเป็นความจริงแล้ว ไม่ใช่แค่การเปรียบเทียบง่ายๆ

สิงหาคม 2023 กรณีการรั่วไหลของน้ำหนัก LLaMA: การรั่วไหลของน้ำหนักของ LLaMA ซึ่งเป็นแบบจำลองภาษาขนาดใหญ่ (LLM) ที่เปิดตัวโดย Facebook (ปัจจุบันคือ Meta) และมีการซื้อขายในดาร์กเว็บในราคา 50,000 ดอลลาร์ (ประมาณ 70 ล้านวอน) แสดงให้เห็นถึงช่องโหว่ด้านความปลอดภัยของ AI อย่างชัดเจน น้ำหนักที่รั่วไหลสามารถนำไปดัดแปลงด้วยเครื่องมือแฮ็กหรือใช้ในการพัฒนา AI ที่เป็นอันตรายในสภาวะที่ไม่สามารถควบคุมได้

มีนาคม 2024 กรณีการจัดการ AI แบบโอเพนซอร์ส: มีรายงานกรณีที่แบบจำลอง AI แบบโอเพนซอร์สบางรุ่นถูกจัดการให้สร้าง 'แบบแปลนระเบิดคล้ายนิวเคลียร์' สิ่งที่น่าตกใจกว่านั้นคือผลการวิเคราะห์ที่แสดงให้เห็นว่าความเป็นไปได้ในการนำไปใช้งานจริงของแบบแปลนดังกล่าวนั้นสูงถึง 92% ซึ่งหมายความว่ามันไม่ใช่แค่ภัยคุกคามทางทฤษฎี แต่สามารถนำไปสู่การทำลายล้างที่เกิดขึ้นจริงได้

ดร. ฮินตันเปรียบเทียบน้ำหนัก AI กับ "สูตรลับ" เขาเตือนว่า หากสูตรทำไก่ทอด KFC ถูกเปิดเผย จะมีร้านไก่ปลอมผุดขึ้นมามากมาย และหากมีการเปิดเผยน้ำหนัก AI จะมี **'AI ที่เป็นอันตราย'** จำนวนมากหลั่งไหลออกมาอย่างไม่เลือกหน้า การคาดการณ์ของเขาว่ายุคสมัยที่ผู้ก่อการร้ายสามารถสร้าง AI ที่ควบคุมอาวุธสังหารได้ด้วยเงินเพียง 1 ล้านดอลลาร์นั้นไม่ใช่เรื่องของอนาคตอันไกลโพ้นอีกต่อไป เราต้องไม่มองข้ามความจริงที่ว่าความเสี่ยงของการใช้ AI ในทางที่ผิดนั้นมีอยู่มากมายพอๆ กับศักยภาพอันไร้ขีดจำกัดของมัน AI ที่เป็นอันตรายสามารถคุกคามชีวิตมนุษย์ในทุกด้านที่เราสามารถจินตนาการได้ เช่น การขโมยข้อมูลส่วนตัว การขัดขวางระบบการเงิน และการพัฒนาอาวุธสังหารอัตโนมัติ

บทที่ 3 ปาฏิหาริย์ที่ปัญญาประดิษฐ์ระดับสุดยอดจะมอบให้: การปฏิวัติทางการแพทย์และการศึกษา

นอกเหนือจากคำเตือนเกี่ยวกับความเสี่ยงแล้ว ดร. ฮินตันยังเน้นย้ำถึง 'ปาฏิหาริย์' ที่ AI จะมอบให้กับมนุษยชาติอีกด้วย เขาเน้นย้ำถึงผลกระทบเชิงบวกที่จะเกิดขึ้นหาก AI ได้รับการพัฒนาและควบคุมในทิศทางที่ถูกต้อง โดยกล่าวว่า "ในเวลาเดียวกัน เทคโนโลยีนี้เป็นโอกาสที่ยิ่งใหญ่ที่สุดในประวัติศาสตร์ของมนุษยชาติ"

การปฏิวัติทางการแพทย์: AI ได้สร้างผลลัพธ์ที่น่าทึ่งในด้านการแพทย์แล้ว ดร. ฮินตันคาดการณ์ว่า AI สามารถเพิ่มความแม่นยำในการวินิจฉัยมะเร็งปอดได้มากกว่า 40% ในความเป็นจริง เมโยคลินิกในสหรัฐอเมริกาประสบความสำเร็จในการเพิ่มความเร็วในการตรวจหาโรคมะเร็งเต้านมมากกว่า 30 เท่า AI สามารถวิเคราะห์ข้อมูลทางการแพทย์จำนวนมหาศาลเพื่อตรวจจับรูปแบบหรืออาการผิดปกติเล็กน้อยที่แพทย์มนุษย์อาจพลาดไปในระยะเริ่มต้น ซึ่งจะช่วยลดอัตราการวินิจฉัยผิดพลาดและปรับปรุงความแม่นยำในการวินิจฉัยอย่างมาก สิ่งนี้จะมีผลกระทบอย่างมากต่อการช่วยชีวิตผู้คนจำนวนมากและการลดต้นทุนทางการแพทย์

การปฏิวัติทางการศึกษา: AI ยังสามารถมีส่วนร่วมในการลดช่องว่างทางการศึกษาได้อีกด้วย ดร. ฮินตันเชื่อว่าติวเตอร์ AI แบบตัวต่อตัวสามารถลดช่องว่างทางการเรียนรู้ของนักเรียนได้ถึง 90% กรณีศึกษาของมหาวิทยาลัยแห่งชาติโซลในเกาหลีสนับสนุนสิ่งนี้ มหาวิทยาลัยแห่งชาติโซลได้รับผลลัพธ์ที่น่าทึ่ง โดยคะแนนของนักเรียนเพิ่มขึ้นโดยเฉลี่ย 31% หลังจากการนำระบบติวเตอร์ AI มาใช้ ติวเตอร์ AI ให้การศึกษาแบบส่วนบุคคลที่ปรับให้เข้ากับระดับการเรียนรู้และความเร็วของนักเรียนแต่ละคน ซึ่งมีประสิทธิภาพในการเสริมสร้างจุดอ่อนและเพิ่มจุดแข็ง สิ่งนี้สามารถช่วยปรับปรุงคุณภาพการศึกษา ลดภาระค่าเล่าเรียนส่วนตัว และท้ายที่สุดคือการสร้างความเท่าเทียมทางการศึกษา

การปฏิวัติสิ่งแวดล้อมและพลังงาน: AI ยังมีบทบาทสำคัญในการแก้ปัญหาสิ่งแวดล้อมอีกด้วย มีรายงานว่าตัวนำยิ่งยวดที่ออกแบบโดย AI สามารถเพิ่มประสิทธิภาพของแบตเตอรี่รถยนต์ไฟฟ้าได้มากกว่า 200% ซึ่งหมายความว่า AI สามารถเพิ่มประสิทธิภาพการใช้พลังงานและลดการปล่อยก๊าซคาร์บอนไดออกไซด์ ซึ่งมีบทบาทสำคัญในการรับมือกับการเปลี่ยนแปลงสภาพภูมิอากาศ

ข้อความของดร. ฮินตันนั้นชัดเจน "AI ก็เหมือนดาบสองคม ขึ้นอยู่กับการนำไปใช้และควบคุมอย่างไร มันอาจเป็นหายนะสำหรับมนุษยชาติ หรืออาจนำมาซึ่งความเจริญรุ่งเรืองอย่างที่ไม่เคยมีมาก่อน" สิ่งสำคัญไม่ใช่เทคโนโลยีนั้นเอง แต่เป็นเจตจำนงและความรับผิดชอบของมนุษย์ที่จัดการเทคโนโลยีนั้น



ความคิดเห็น0

คำเตือนอันน่าสะพรึงกลัวเกี่ยวกับปัญญาประดิษฐ์ศาสตราจารย์ฮินตันผู้ได้รับรางวัลโนเบลแสดงความกังวลเกี่ยวกับการพัฒนาอย่างรวดเร็วของ AI และเน้นย้ำถึงความจำเป็นในการควบคุมของรัฐบาล คำเตือนว่า AI อาจคุกคามมนุษยชาติ พร้อมกับการคาดการณ์อนาคตอันมืดมนของมนุษยชาติในอีก 30 ปีข้างหน้า Korea Economic Daily, 28 ธั
참길
참길
참길
참길

December 29, 2024

ปัญญาประดิษฐ์ที่เหนือกว่ามนุษย์ อนาคตแห่งพรหรือภัยพิบัติ?การถกเถียงเกี่ยวกับผลกระทบของการพัฒนาปัญญาประดิษฐ์ที่มีต่อมนุษยชาติ โดยมีทั้งการคาดการณ์ในแง่ดีและการหยิบยกถึงความเสี่ยง เช่น การสูญเสียการควบคุมของมนุษย์และปัญหาทางจริยธรรม
durumis AI News Japan
durumis AI News Japan
durumis AI News Japan
durumis AI News Japan

May 25, 2024

อนาคตอันใกล้นี้ในมุมมองส่วนตัวด้วยความก้าวหน้าของเทคโนโลยี AI นักพัฒนาอาจจะหันไปมุ่งเน้นที่การแก้ปัญหาเชิงสร้างสรรค์มากขึ้น และอาจมีอาชีพใหม่ๆ เกิดขึ้น เช่น ชีววิทยา วิศวกรพรอมต์ เป็นต้น นอกจากนี้ ยังมีความเสี่ยงที่อาจเกิดขึ้น เช่น การพัฒนาอาวุธ AI ไวรัส การแฮ็ก และปัญหาสังคมผู้สูงอาย
Mark Ball Blog
Mark Ball Blog
Mark Ball Blog
Mark Ball Blog

March 26, 2024

อนาคตของปัญญาประดิษฐ์: จุดตัดของอาชีพและความคิดสร้างสรรค์บทความที่เผยแพร่เมื่อวันที่ 25 มีนาคม 2025 นี้กล่าวถึงอนาคตของปัญญาประดิษฐ์ การเปลี่ยนแปลงของอาชีพและความคิดสร้างสรรค์ ยกตัวอย่างนวัตกรรม AI ในด้านการขับขี่อัตโนมัติ การดูแลสุขภาพ การเงิน และอื่นๆ พร้อมทั้งพูดถึงประเด็นทางจริยธรรม กลยุทธ์ของแต่ละประเทศ แ
Cherry Bee
Cherry Bee
Cherry Bee
Cherry Bee

March 25, 2025

ปัจจุบันและอนาคตของปัญญาประดิษฐ์บทความนี้จะพิจารณาปัจจุบันและอนาคตของปัญญาประดิษฐ์ (AI) โดยจะกล่าวถึงกรณีการใช้งาน AI ในหลากหลายสาขา เช่น การแพทย์ ยานยนต์ และการเงิน รวมถึงประเด็นทางจริยธรรมและการเปลี่ยนแปลงของงาน บทความนี้จะนำเสนอภาพอนาคตเชิงบวกที่การพัฒนา AI จะนำมาให้และภารกิจที่ต้อง
Cherry Bee
Cherry Bee
Cherry Bee
Cherry Bee

January 7, 2025

ปัญญาประดิษฐ์เชิงสร้างสรรค์ในปี 2023 และความหมายของมนุษย์ในอนาคตปี 2023 เป็นปีที่ปัญญาประดิษฐ์เชิงสร้างสรรค์ (Generative AI) ก้าวขึ้นมาอย่างรวดเร็วและจุดชนวนคำถามเกี่ยวกับความหมายของการเป็นมนุษย์ การพัฒนาเทคโนโลยี AI นำไปสู่การไตร่ตรองถึงคุณค่าเฉพาะตัวของมนุษย์ เวลา และพื้นที่อย่างจริงจัง
Byungchae Ryan Son
Byungchae Ryan Son
Byungchae Ryan Son
Byungchae Ryan Son

May 16, 2024