NEWS FDN (다큐)

[AI 인사이트] "AI의 대부가 경고한다 … 10년 안에 닥칠 초지능의 갈림길"

  • लेखन भाषा: कोरियाई
  • आधार देश: सभी देशcountry-flag
  • आईटी

रचना: 2025-07-23

रचना: 2025-07-23 06:41

[AI 인사이트] "AI의 대부가 경고한다 … 10년 안에 닥칠 초지능의 갈림길"

[AI 인사이트] "AI의 대부가 경고한다 … 10년 안에 닥칠 초지능의 갈림길"


"मैंने 50 वर्षों तक एआई पर शोध किया है। अब पहली बार ऐसा लग रहा है कि मैं डर रहा हूँ।

लेखक | चोई बोंग ह्युक स्तंभकार | द एसजी न्यूज़

2018 के ट्यूरिंग पुरस्कार (कंप्यूटर विज्ञान में नोबेल पुरस्कार) के विजेता, जेफ्री हिंटन के ये शब्द केवल एक वैज्ञानिक की बड़बड़ाहट नहीं हैं। यह एक खतरनाक चेतावनी है जो बताती है कि मानव जाति एक नए सभ्यतागत मोड़ पर खड़ी है जिसका उसने पहले कभी अनुभव नहीं किया है। ऐसा लगता है कि उन्होंने खुद को उस समय के ओपेनहाइमर के समान स्थिति में रखा, जब उन्होंने परमाणु बम के विकास के बाद मानव जाति को परमाणु युद्ध की संभावना के बारे में चेतावनी दी थी, और वे इस बात पर ज़ोर देते हैं कि हमारे सामने आने वाला भविष्य केवल विज्ञान कथाओं की कहानी नहीं है।

एक स्तंभकार के रूप में, चोई बोंग ह्युक, मुझे विश्वास है कि एआई तकनीक के इस विकास और इससे जुड़ी नैतिक और सामाजिक जिम्मेदारियों पर चर्चा हमारे समाज के सार्वजनिक हित के अनुरूप एक आवश्यक प्रक्रिया है। हिंटन की चेतावनी को गहराई से समझते हुए और उनके द्वारा उठाए गए मुद्दों और समाधानों का बारीकी से विश्लेषण करके, हमें उस अंतर्दृष्टि को प्राप्त करना चाहिए जो हमें आने वाले एआई युग को मानव जाति के लिए फायदेमंद दिशा में ले जाने में मदद करेगी।

अध्याय 1. '10~20% संभावना' चेतावनी_ मानव जाति का भविष्य जो समय से आगे है

जेफ्री हिंटन ने मई 2024 में बीबीसी के साथ एक साक्षात्कार में इस बात की गवाही दी कि एआई के बारे में उनकी धारणा केवल दो वर्षों में कितनी तेजी से बदल गई है। "2022 तक, मैंने एआई के कारण नियंत्रण से बाहर होने के जोखिम को 50 साल बाद की बात माना था। लेकिन GPT-4 के आने के साथ, मुझे लगता है कि अगले 10 वर्षों में सुपर-इंटेलिजेंस के मानव नियंत्रण से बाहर निकलने की 10~20% संभावना है।

यह 1020% आंकड़ा सांख्यिकीय रूप से छोटा लग सकता है, लेकिन इसका मतलब हल्का नहीं है। मानव अस्तित्व के सवाल में, 1020% 'संभावना' नहीं है, बल्कि 'वास्तविक खतरा' है। यह ऐसा ही है जैसे विमान दुर्घटना की संभावना 0.0001% से कम होने पर भी हम सुरक्षा में सब कुछ निवेश करते हैं। हिंटन बताते हैं कि एआई तकनीक की प्रगति की गति स्मार्टफोन अपग्रेड की गति से कहीं अधिक है। पहले, तकनीकी क्रांति हर 10 साल में एक बार होती थी, लेकिन अब हम एक ऐसे युग में प्रवेश कर चुके हैं जहाँ हर साल दो से अधिक बार नवाचार होता है।

जिस 'मोड़' की वे बात कर रहे हैं, वह है एआई की स्वयं सीखने और विकसित होने की क्षमता। यह उस पल की तरह है जब एक बच्चा चलना शुरू करता है। एक बार चलना शुरू करने के बाद, बच्चा रुकता नहीं है और खुद दौड़ना सीखता है, उसी तरह, एआई में मानव हस्तक्षेप के बिना अपनी बुद्धिमत्ता को उन्नत करने की क्षमता है। समस्या यह है कि यदि यह आत्म-विकास मानव नियंत्रण के दायरे से बाहर चला जाता है, तो परिणाम अप्रत्याशित हैं। स्वायत्त सुपर-इंटेलिजेंस एआई द्वारा मानवता के हितों के विपरीत लक्ष्यों को निर्धारित करने या मानव इरादे को गलत समझने की स्थिति में संभावित खतरे कल्पना से परे हैं।

अध्याय 2. "एआई वेट्स का प्रकटीकरण परमाणु हथियार डिजाइन के रिसाव के समान है"

हिंटन जिन बिंदुओं के बारे में सबसे अधिक चेतावनी देते हैं, उनमें से एक 'एआई मॉडल वेट (वज़न) का प्रकटीकरण' है। उन्होंने बड़े एआई मॉडल के वज़न को ओपन-सोर्स के रूप में जारी करने के कृत्य को "परमाणु हथियार डिजाइन को इंटरनेट पर डालने जैसा पागलपन" बताया। यह रूपक दिखाता है कि वे एआई तकनीक की विनाशकारी शक्ति को परमाणु हथियारों के समान गंभीर मानते हैं।

उनकी चिंताएँ सिर्फ रूपक नहीं हैं, बल्कि पहले ही एक वास्तविकता बन चुकी हैं।

अगस्त 2023 में, LLaMA वज़न रिसाव की घटना: फेसबुक (अब मेटा) द्वारा जारी बड़े भाषा मॉडल (LLM) लामा (LLaMA) के वज़न लीक हो गए और डार्क वेब पर 50,000 डॉलर (लगभग 70 मिलियन वोन) में कारोबार किया गया, जिससे एआई सुरक्षा की भेद्यता उजागर हुई। लीक हुए वज़नों को हैकिंग टूल के साथ बदला जा सकता है या दुर्भावनापूर्ण एआई के विकास में इस्तेमाल किया जा सकता है, जिससे वे नियंत्रण से बाहर हो गए।

मार्च 2024 में, ओपन-सोर्स एआई हेरफेर का मामला: वास्तव में, विशिष्ट ओपन-सोर्स एआई मॉडल के साथ छेड़छाड़ की गई और एक 'समान परमाणु बम डिजाइन' उत्पन्न किया गया। अधिक चौंकाने वाली बात यह थी कि विश्लेषणों से पता चला कि डिजाइन के भौतिक कार्यान्वयन की संभावना 92% थी। यह दर्शाता है कि यह एक सैद्धांतिक खतरा नहीं है, बल्कि वास्तविक विनाश का कारण बन सकता है।

हिंटन ने एआई वेट को एक "गुप्त नुस्खा" के रूप में संदर्भित किया। जैसे केएफसी चिकन रेसिपी सार्वजनिक होने पर नकली चिकन स्टोर खुल जाते हैं, उसी तरह, एआई वेट सार्वजनिक होने पर दुर्भावनापूर्ण इरादे वाले **'हानिकारक एआई'** बेतरतीब ढंग से सामने आएंगे। उनका अनुमान है कि 1 मिलियन डॉलर में आतंकवादी भी घातक हथियार नियंत्रण एआई बना सकते हैं, अब भविष्य की बात नहीं रही। हमें इस बात को नज़रअंदाज़ नहीं करना चाहिए कि एआई की असीमित संभावनाओं के साथ-साथ इसके दुरुपयोग का जोखिम भी असीमित है। निजी जानकारी की चोरी, वित्तीय प्रणाली का विघटन, स्वायत्त घातक हथियारों का विकास, आदि जैसी सभी श्रेणियों में हानिकारक एआई मानव जीवन को खतरे में डाल सकता है।

अध्याय 3. सुपर-इंटेलिजेंस द्वारा प्रस्तुत चमत्कार: चिकित्सा और शिक्षा में क्रांति

खतरों की चेतावनी के साथ-साथ, हिंटन ने एआई द्वारा मानव जाति को दिए जाने वाले 'चमत्कार' पर भी ज़ोर दिया। उन्होंने कहा, "साथ ही, यह तकनीक मानव इतिहास का सबसे बड़ा अवसर है", और इस बात पर ज़ोर दिया कि अगर एआई को सही तरीके से विकसित और नियंत्रित किया जाए तो इसका सकारात्मक प्रभाव पड़ेगा।

चिकित्सा क्रांति: एआई पहले से ही चिकित्सा क्षेत्र में अद्भुत परिणाम दिखा रहा है। हिंटन ने भविष्यवाणी की कि एआई डॉक्टर फेफड़ों के कैंसर का पता लगाने की सटीकता में 40% से अधिक सुधार कर सकते हैं। वास्तव में, मेयो क्लिनिक (Mayo Clinic) ने एआई का उपयोग करके स्तन कैंसर का पता लगाने की गति को 30 गुना से अधिक बढ़ाने में सफलता हासिल की है। एआई चिकित्सा डेटा की बड़ी मात्रा का विश्लेषण करके मानव डॉक्टरों द्वारा छोड़े जा सकने वाले छोटे पैटर्न या असामान्य लक्षणों का पता लगाकर गलत निदान की दर को कम कर सकता है और निदान की सटीकता में नाटकीय रूप से सुधार कर सकता है। इसका जीवन बचाने और चिकित्सा लागत को कम करने पर बहुत बड़ा प्रभाव पड़ेगा।

शिक्षा क्रांति: एआई शिक्षा क्षेत्र में असमानताओं को कम करने में भी योगदान कर सकता है। हिंटन ने देखा कि 1-ऑन-1 एआई ट्यूटर छात्रों में 90% तक शिक्षा में अंतर को कम कर सकते हैं। कोरिया में सियोल नेशनल यूनिवर्सिटी का मामला इसका समर्थन करता है। सियोल नेशनल यूनिवर्सिटी ने एआई ट्यूटरिंग सिस्टम शुरू करने के बाद छात्रों के ग्रेड में औसतन 31% की वृद्धि देखी। एआई ट्यूटर छात्रों के व्यक्तिगत सीखने के स्तर और गति के अनुसार अनुकूलित शिक्षा प्रदान करते हैं, कमजोरियों को दूर करने और ताकत को अधिकतम करने में प्रभावी होते हैं। यह शिक्षा की गुणवत्ता में सुधार कर सकता है, निजी शिक्षा के बोझ को कम कर सकता है, और अंततः शिक्षा में समानता हासिल कर सकता है।

पर्यावरण और ऊर्जा क्रांति: एआई पर्यावरण संबंधी समस्याओं को हल करने में भी महत्वपूर्ण भूमिका निभाता है। ऐसा कहा जाता है कि एआई द्वारा डिज़ाइन किया गया सुपरकंडक्टर इलेक्ट्रिक वाहन बैटरी की दक्षता को 200% से अधिक बढ़ा सकता है। इसका मतलब है कि यह ऊर्जा दक्षता को अधिकतम कर सकता है और कार्बन उत्सर्जन को कम करके जलवायु परिवर्तन का मुकाबला करने में एक आवश्यक भूमिका निभा सकता है।

हिंटन का संदेश स्पष्ट है। "जैसे परमाणु हथियार बिजली उत्पन्न करने वाले रिएक्टर के रूप में उपयोग किए जाते हैं, वैसे ही एआई, अगर नियंत्रित किया जाए, तो मानव जाति का रक्षक बन जाएगा।" एआई एक दोधारी तलवार है, और इसे कैसे उपयोग और नियंत्रित किया जाता है, इसके आधार पर, यह मानव जाति के लिए तबाही ला सकता है या अभूतपूर्व समृद्धि ला सकता है। महत्वपूर्ण बात यह है कि तकनीक ही नहीं, बल्कि उस तकनीक को संभालने वाले मनुष्य की इच्छा और जिम्मेदारी है।



टिप्पणियाँ0

कृत्रिम बुद्धिमत्ता से जुड़ी भयावह चेतावनीनोबेल पुरस्कार विजेता हिंटन प्रोफ़ेसर ने AI के तेज़ी से विकास पर चिंता व्यक्त करते हुए सरकार द्वारा नियमन की आवश्यकता पर ज़ोर दिया है। AI मानव जाति के लिए ख़तरा बन सकता है, इस चेतावनी के साथ उन्होंने 30 साल बाद मानव जाति के भविष्य को अंधकारमय बताया है। दक
참길
참길
참길
참길

December 29, 2024

मानव से आगे निकलने वाली कृत्रिम बुद्धिमत्ता, भविष्य का आशीर्वाद या अभिशाप?कृत्रिम बुद्धिमत्ता के विकास का मानव जाति पर पड़ने वाले प्रभाव पर बहस, सकारात्मक अनुमानों के साथ-साथ मानव नियंत्रण क्षति और नैतिक समस्याओं जैसे जोखिमों को भी उठाती है।
durumis AI News Japan
durumis AI News Japan
durumis AI News Japan
durumis AI News Japan

May 25, 2024

व्यक्तिगत रूप से सोचा गया संक्षिप्त भविष्यकृत्रिम बुद्धिमत्ता तकनीक के विकास से डेवलपर रचनात्मक समस्या समाधान पर ध्यान केंद्रित कर सकते हैं, और जीव विज्ञान, प्रॉम्प्ट इंजीनियर जैसे नए व्यवसाय उभर सकते हैं। इसके अलावा, कृत्रिम बुद्धिमत्ता हथियार विकास, वायरस, हैकिंग जैसे जोखिम भी मौजूद हैं, और बुढ
Mark Ball Blog
Mark Ball Blog
Mark Ball Blog
Mark Ball Blog

March 26, 2024

एल्गोरिथम ब्रांडिंग का युग आ रहा हैएलन मस्क, सुंदर पिचाई, सैम ऑल्टमैन जैसे लोग आर्टिफिशियल इंटेलिजेंस युग के भविष्य और मनुष्य की भूमिका पर विभिन्न दृष्टिकोण प्रस्तुत करते हुए एल्गोरिथम ब्रांडिंग युग के आगमन को दर्शाते हैं।
Byungchae Ryan Son
Byungchae Ryan Son
Byungchae Ryan Son
Byungchae Ryan Son

May 10, 2024

कृत्रिम बुद्धिमत्ता का भविष्य: रोजगार और रचनात्मकता का संगम25 मार्च, 2025 को प्रकाशित यह लेख कृत्रिम बुद्धिमत्ता के भविष्य, रोजगार और रचनात्मकता में आने वाले बदलावों पर प्रकाश डालता है। इसमें स्व-चालित वाहन, स्वास्थ्य सेवा, वित्त आदि क्षेत्रों में कृत्रिम बुद्धिमत्ता के क्रांतिकारी उदाहरणों के साथ-साथ नैतिक मुद्द
Cherry Bee
Cherry Bee
Cherry Bee
Cherry Bee

March 25, 2025

जनरेटिव AI का 2023, और उसके बाद मानव का अर्थ2023 जनरेटिव AI का उदय देखने वाला वर्ष रहा, जिसने मानव के अर्थ पर सवाल उठाए हैं। AI तकनीक के विकास के साथ ही मानव के विशिष्ट मूल्य, समय और स्थान पर चिंतन करना महत्वपूर्ण हो गया है।
Byungchae Ryan Son
Byungchae Ryan Son
Byungchae Ryan Son
Byungchae Ryan Son

May 16, 2024