World News: ‘गॉडफादर ऑफ एआई’ ने मानवता को दी नई चेतावनी! – INA NEWS
एआई में अग्रणी व्यक्ति और भौतिकी में 2024 नोबेल पुरस्कार प्राप्तकर्ता जेफ्री हिंटन के अनुसार, कृत्रिम बुद्धिमत्ता तीन दशकों के भीतर मानव विलुप्त होने का कारण बन सकती है, जिसकी संभावना 20% तक है। यह 10% जोखिम से वृद्धि दर्शाता है, जैसा कि एक साल पहले उनका अनुमान था।
गुरुवार को बीबीसी रेडियो 4 पर एक साक्षात्कार के दौरान हिंटन से पूछा गया कि क्या एआई सर्वनाश की दस में से एक संभावना के उनके पिछले अनुमान के बाद से कुछ भी बदला है। ट्यूरिंग पुरस्कार विजेता वैज्ञानिक ने जवाब दिया, “वास्तव में नहीं, 10% से 20%।”
इसके चलते शो के अतिथि संपादक, पूर्व चांसलर साजिद जाविद को चुटकी लेनी पड़ी “आप ऊपर जा रहे हैं।” पिछले साल Google छोड़ने वाले कंप्यूटर वैज्ञानिक ने जवाब दिया: “अगर कुछ भी। आप देखिए, हमें पहले कभी भी अपने से अधिक बुद्धिमान चीजों से नहीं जूझना पड़ा।”
एआई में अपने योगदान के लिए इस साल भौतिकी में नोबेल पुरस्कार प्राप्त करने वाले ब्रिटिश-कनाडाई वैज्ञानिक ने उन्नत एआई सिस्टम को नियंत्रित करने की चुनौतियों पर प्रकाश डाला।
“आप ऐसे कितने उदाहरण जानते हैं कि एक अधिक बुद्धिमान चीज़ को कम बुद्धिमान चीज़ द्वारा नियंत्रित किया जा रहा है?…विकास ने बच्चे को माँ को नियंत्रित करने की अनुमति देने में बहुत काम किया है, लेकिन यह एकमात्र उदाहरण है जिसके बारे में मैं जानता हूँ,” हिंटन, जिन्हें अक्सर ‘एआई का गॉडफादर’ कहा जाता है, ने कहा।
उन्होंने सुझाव दिया “अपनी और तीन साल के बच्चे की कल्पना करें। हम तीन साल के हो जायेंगे,” भविष्य में होने वाले AI की तुलना में “लोगों से ज्यादा होशियार।”
हिंटन ने कहा कि प्रगति हुई है “मेरी अपेक्षा से कहीं अधिक तेज़,” और सुरक्षा सुनिश्चित करने के लिए विनियमन का आह्वान किया। उन्होंने केवल कॉर्पोरेट लाभ के उद्देश्यों पर निर्भर रहने के प्रति आगाह करते हुए कहा, “केवल एक चीज जो उन बड़ी कंपनियों को सुरक्षा पर अधिक शोध करने के लिए मजबूर कर सकती है वह है सरकारी विनियमन।”
मई 2023 में, सेंटर फॉर एआई सेफ्टी ने हिंटन सहित क्षेत्र के प्रमुख वैज्ञानिकों द्वारा हस्ताक्षरित एक बयान जारी किया, जिसमें चेतावनी दी गई कि “महामारी और परमाणु युद्ध जैसे अन्य सामाजिक स्तर के जोखिमों के साथ-साथ एआई से विलुप्त होने के जोखिम को कम करना एक वैश्विक प्राथमिकता होनी चाहिए।” हस्ताक्षरकर्ताओं में टेस्ला के सीईओ एलोन मस्क, एप्पल के सह-संस्थापक स्टीव वोज्नियाक और योशुआ बेंगियो शामिल हैं, जिन्हें तंत्रिका नेटवर्क पर अपने काम के लिए एआई अग्रणी माना जाता है।
हिंटन का मानना है कि एआई सिस्टम अंततः मानव बुद्धि को पार कर सकता है, मानव नियंत्रण से बच सकता है और संभावित रूप से मानवता को विनाशकारी नुकसान पहुंचा सकता है। वह एआई सुरक्षा और नैतिक उपयोग सुनिश्चित करने के लिए महत्वपूर्ण संसाधनों को समर्पित करने की वकालत करते हैं, साथ ही बहुत देर होने से पहले सक्रिय उपायों की तत्काल आवश्यकता पर भी जोर देते हैं।
मेटा के मुख्य एआई वैज्ञानिक यान लेकन ने हिंटन के विपरीत विचार व्यक्त करते हुए कहा है कि प्रौद्योगिकी “वास्तव में मानवता को विलुप्त होने से बचा सकता है।”
‘गॉडफादर ऑफ एआई’ ने मानवता को दी नई चेतावनी!
देश दुनियां की खबरें पाने के लिए ग्रुप से जुड़ें,
#INA #INA_NEWS #INANEWSAGENCY
Copyright Disclaimer :-Under Section 107 of the Copyright Act 1976, allowance is made for “fair use” for purposes such as criticism, comment, news reporting, teaching, scholarship, and research. Fair use is a use permitted by copyright statute that might otherwise be infringing., educational or personal use tips the balance in favor of fair use.
Credit By :-This post was first published on RTNews.com, we have published it via RSS feed courtesy of Source link,