- [AI 인사이트] "AI의 대부가 경고한다 … 10년 안에 닥칠 초지능의 갈림길" - 더이에스지(theesg)뉴스
- "저는 50년간 AI를 연구해왔습니다. 지금이 처음으로 두려움을 느끼는 순간입니다."글 ㅣ 최봉혁 칼럼니스트 ㅣ 더이에스지뉴스 2018년 튜링상(컴퓨터 과학계의
[AI 인사이트] "AI의 대부가 경고한다 … 10년 안에 닥칠 초지능의 갈림길"
"मैंने 50 वर्षों तक एआई पर शोध किया है। अब पहली बार ऐसा लग रहा है कि मैं डर रहा हूँ।
लेखक | चोई बोंग ह्युक स्तंभकार | द एसजी न्यूज़
2018 के ट्यूरिंग पुरस्कार (कंप्यूटर विज्ञान में नोबेल पुरस्कार) के विजेता, जेफ्री हिंटन के ये शब्द केवल एक वैज्ञानिक की बड़बड़ाहट नहीं हैं। यह एक खतरनाक चेतावनी है जो बताती है कि मानव जाति एक नए सभ्यतागत मोड़ पर खड़ी है जिसका उसने पहले कभी अनुभव नहीं किया है। ऐसा लगता है कि उन्होंने खुद को उस समय के ओपेनहाइमर के समान स्थिति में रखा, जब उन्होंने परमाणु बम के विकास के बाद मानव जाति को परमाणु युद्ध की संभावना के बारे में चेतावनी दी थी, और वे इस बात पर ज़ोर देते हैं कि हमारे सामने आने वाला भविष्य केवल विज्ञान कथाओं की कहानी नहीं है।
एक स्तंभकार के रूप में, चोई बोंग ह्युक, मुझे विश्वास है कि एआई तकनीक के इस विकास और इससे जुड़ी नैतिक और सामाजिक जिम्मेदारियों पर चर्चा हमारे समाज के सार्वजनिक हित के अनुरूप एक आवश्यक प्रक्रिया है। हिंटन की चेतावनी को गहराई से समझते हुए और उनके द्वारा उठाए गए मुद्दों और समाधानों का बारीकी से विश्लेषण करके, हमें उस अंतर्दृष्टि को प्राप्त करना चाहिए जो हमें आने वाले एआई युग को मानव जाति के लिए फायदेमंद दिशा में ले जाने में मदद करेगी।
अध्याय 1. '10~20% संभावना' चेतावनी_ मानव जाति का भविष्य जो समय से आगे है
जेफ्री हिंटन ने मई 2024 में बीबीसी के साथ एक साक्षात्कार में इस बात की गवाही दी कि एआई के बारे में उनकी धारणा केवल दो वर्षों में कितनी तेजी से बदल गई है। "2022 तक, मैंने एआई के कारण नियंत्रण से बाहर होने के जोखिम को 50 साल बाद की बात माना था। लेकिन GPT-4 के आने के साथ, मुझे लगता है कि अगले 10 वर्षों में सुपर-इंटेलिजेंस के मानव नियंत्रण से बाहर निकलने की 10~20% संभावना है।
यह 1020% आंकड़ा सांख्यिकीय रूप से छोटा लग सकता है, लेकिन इसका मतलब हल्का नहीं है। मानव अस्तित्व के सवाल में, 1020% 'संभावना' नहीं है, बल्कि 'वास्तविक खतरा' है। यह ऐसा ही है जैसे विमान दुर्घटना की संभावना 0.0001% से कम होने पर भी हम सुरक्षा में सब कुछ निवेश करते हैं। हिंटन बताते हैं कि एआई तकनीक की प्रगति की गति स्मार्टफोन अपग्रेड की गति से कहीं अधिक है। पहले, तकनीकी क्रांति हर 10 साल में एक बार होती थी, लेकिन अब हम एक ऐसे युग में प्रवेश कर चुके हैं जहाँ हर साल दो से अधिक बार नवाचार होता है।
जिस 'मोड़' की वे बात कर रहे हैं, वह है एआई की स्वयं सीखने और विकसित होने की क्षमता। यह उस पल की तरह है जब एक बच्चा चलना शुरू करता है। एक बार चलना शुरू करने के बाद, बच्चा रुकता नहीं है और खुद दौड़ना सीखता है, उसी तरह, एआई में मानव हस्तक्षेप के बिना अपनी बुद्धिमत्ता को उन्नत करने की क्षमता है। समस्या यह है कि यदि यह आत्म-विकास मानव नियंत्रण के दायरे से बाहर चला जाता है, तो परिणाम अप्रत्याशित हैं। स्वायत्त सुपर-इंटेलिजेंस एआई द्वारा मानवता के हितों के विपरीत लक्ष्यों को निर्धारित करने या मानव इरादे को गलत समझने की स्थिति में संभावित खतरे कल्पना से परे हैं।
अध्याय 2. "एआई वेट्स का प्रकटीकरण परमाणु हथियार डिजाइन के रिसाव के समान है"
हिंटन जिन बिंदुओं के बारे में सबसे अधिक चेतावनी देते हैं, उनमें से एक 'एआई मॉडल वेट (वज़न) का प्रकटीकरण' है। उन्होंने बड़े एआई मॉडल के वज़न को ओपन-सोर्स के रूप में जारी करने के कृत्य को "परमाणु हथियार डिजाइन को इंटरनेट पर डालने जैसा पागलपन" बताया। यह रूपक दिखाता है कि वे एआई तकनीक की विनाशकारी शक्ति को परमाणु हथियारों के समान गंभीर मानते हैं।
उनकी चिंताएँ सिर्फ रूपक नहीं हैं, बल्कि पहले ही एक वास्तविकता बन चुकी हैं।
अगस्त 2023 में, LLaMA वज़न रिसाव की घटना: फेसबुक (अब मेटा) द्वारा जारी बड़े भाषा मॉडल (LLM) लामा (LLaMA) के वज़न लीक हो गए और डार्क वेब पर 50,000 डॉलर (लगभग 70 मिलियन वोन) में कारोबार किया गया, जिससे एआई सुरक्षा की भेद्यता उजागर हुई। लीक हुए वज़नों को हैकिंग टूल के साथ बदला जा सकता है या दुर्भावनापूर्ण एआई के विकास में इस्तेमाल किया जा सकता है, जिससे वे नियंत्रण से बाहर हो गए।
मार्च 2024 में, ओपन-सोर्स एआई हेरफेर का मामला: वास्तव में, विशिष्ट ओपन-सोर्स एआई मॉडल के साथ छेड़छाड़ की गई और एक 'समान परमाणु बम डिजाइन' उत्पन्न किया गया। अधिक चौंकाने वाली बात यह थी कि विश्लेषणों से पता चला कि डिजाइन के भौतिक कार्यान्वयन की संभावना 92% थी। यह दर्शाता है कि यह एक सैद्धांतिक खतरा नहीं है, बल्कि वास्तविक विनाश का कारण बन सकता है।
हिंटन ने एआई वेट को एक "गुप्त नुस्खा" के रूप में संदर्भित किया। जैसे केएफसी चिकन रेसिपी सार्वजनिक होने पर नकली चिकन स्टोर खुल जाते हैं, उसी तरह, एआई वेट सार्वजनिक होने पर दुर्भावनापूर्ण इरादे वाले **'हानिकारक एआई'** बेतरतीब ढंग से सामने आएंगे। उनका अनुमान है कि 1 मिलियन डॉलर में आतंकवादी भी घातक हथियार नियंत्रण एआई बना सकते हैं, अब भविष्य की बात नहीं रही। हमें इस बात को नज़रअंदाज़ नहीं करना चाहिए कि एआई की असीमित संभावनाओं के साथ-साथ इसके दुरुपयोग का जोखिम भी असीमित है। निजी जानकारी की चोरी, वित्तीय प्रणाली का विघटन, स्वायत्त घातक हथियारों का विकास, आदि जैसी सभी श्रेणियों में हानिकारक एआई मानव जीवन को खतरे में डाल सकता है।
अध्याय 3. सुपर-इंटेलिजेंस द्वारा प्रस्तुत चमत्कार: चिकित्सा और शिक्षा में क्रांति
खतरों की चेतावनी के साथ-साथ, हिंटन ने एआई द्वारा मानव जाति को दिए जाने वाले 'चमत्कार' पर भी ज़ोर दिया। उन्होंने कहा, "साथ ही, यह तकनीक मानव इतिहास का सबसे बड़ा अवसर है", और इस बात पर ज़ोर दिया कि अगर एआई को सही तरीके से विकसित और नियंत्रित किया जाए तो इसका सकारात्मक प्रभाव पड़ेगा।
चिकित्सा क्रांति: एआई पहले से ही चिकित्सा क्षेत्र में अद्भुत परिणाम दिखा रहा है। हिंटन ने भविष्यवाणी की कि एआई डॉक्टर फेफड़ों के कैंसर का पता लगाने की सटीकता में 40% से अधिक सुधार कर सकते हैं। वास्तव में, मेयो क्लिनिक (Mayo Clinic) ने एआई का उपयोग करके स्तन कैंसर का पता लगाने की गति को 30 गुना से अधिक बढ़ाने में सफलता हासिल की है। एआई चिकित्सा डेटा की बड़ी मात्रा का विश्लेषण करके मानव डॉक्टरों द्वारा छोड़े जा सकने वाले छोटे पैटर्न या असामान्य लक्षणों का पता लगाकर गलत निदान की दर को कम कर सकता है और निदान की सटीकता में नाटकीय रूप से सुधार कर सकता है। इसका जीवन बचाने और चिकित्सा लागत को कम करने पर बहुत बड़ा प्रभाव पड़ेगा।
शिक्षा क्रांति: एआई शिक्षा क्षेत्र में असमानताओं को कम करने में भी योगदान कर सकता है। हिंटन ने देखा कि 1-ऑन-1 एआई ट्यूटर छात्रों में 90% तक शिक्षा में अंतर को कम कर सकते हैं। कोरिया में सियोल नेशनल यूनिवर्सिटी का मामला इसका समर्थन करता है। सियोल नेशनल यूनिवर्सिटी ने एआई ट्यूटरिंग सिस्टम शुरू करने के बाद छात्रों के ग्रेड में औसतन 31% की वृद्धि देखी। एआई ट्यूटर छात्रों के व्यक्तिगत सीखने के स्तर और गति के अनुसार अनुकूलित शिक्षा प्रदान करते हैं, कमजोरियों को दूर करने और ताकत को अधिकतम करने में प्रभावी होते हैं। यह शिक्षा की गुणवत्ता में सुधार कर सकता है, निजी शिक्षा के बोझ को कम कर सकता है, और अंततः शिक्षा में समानता हासिल कर सकता है।
पर्यावरण और ऊर्जा क्रांति: एआई पर्यावरण संबंधी समस्याओं को हल करने में भी महत्वपूर्ण भूमिका निभाता है। ऐसा कहा जाता है कि एआई द्वारा डिज़ाइन किया गया सुपरकंडक्टर इलेक्ट्रिक वाहन बैटरी की दक्षता को 200% से अधिक बढ़ा सकता है। इसका मतलब है कि यह ऊर्जा दक्षता को अधिकतम कर सकता है और कार्बन उत्सर्जन को कम करके जलवायु परिवर्तन का मुकाबला करने में एक आवश्यक भूमिका निभा सकता है।
हिंटन का संदेश स्पष्ट है। "जैसे परमाणु हथियार बिजली उत्पन्न करने वाले रिएक्टर के रूप में उपयोग किए जाते हैं, वैसे ही एआई, अगर नियंत्रित किया जाए, तो मानव जाति का रक्षक बन जाएगा।" एआई एक दोधारी तलवार है, और इसे कैसे उपयोग और नियंत्रित किया जाता है, इसके आधार पर, यह मानव जाति के लिए तबाही ला सकता है या अभूतपूर्व समृद्धि ला सकता है। महत्वपूर्ण बात यह है कि तकनीक ही नहीं, बल्कि उस तकनीक को संभालने वाले मनुष्य की इच्छा और जिम्मेदारी है।
टिप्पणियाँ0