Tach – आप तो एक प्रॉम्प्ट डालकर रिजल्ट पा लेते हैं, मगर क्या जानते हैं कितनी बिजली खाता है AI?

आजकल हम सबके लिए AI एक जादू की तरह काम कर रहा है. बस एक सवाल टाइप करो या बोलो, और सेकेंड्स में जवाब मिल जाता है. रेसिपी बताओ, कोड लिखो, इमेज बनाओ या काम का प्लान तैयार करो – AI सब कुछ आसान बना रहा है. लेकिन क्या आपने कभी सोचा है कि इस ‘जादू’ के पीछे कितनी बिजली लग रही है?

Table of Contents

जब हम एक साधारण प्रॉम्प्ट डालते हैं, तो लगता है कि बस एक छोटा सा काम हुआ. लेकिन असल में यह काम दुनिया भर के विशाल डेटा सेंटर्स में चलता है. इन सेंटर्स में हजारों-लाखों पावरफुल कंप्यूटर (खासकर GPU चिप्स) लगे होते हैं, जो AI मॉडल को चलाते हैं. ये चिप्स बहुत ज्यादा बिजली खाते हैं.

AI की मांग इतनी तेजी से बढ़ रही है कि कंप्यूटिंग पावर (computing power) की कमी हो गई है. कंपनियां GPU किराए पर लेने के लिए भी ज्यादा पैसे दे रही हैं. उदाहरण के लिए, Nvidia के Blackwell चिप को एक घंटे के लिए किराए पर लेने की कीमत दो महीने पहले $2.75 थी, जो अब $4.08 हो गई है- यानी लगभग 48% बढ़ोतरी. पुराने H100 GPU की रेंटल कीमत भी 40% तक बढ़ चुकी है.

OpenAI और Anthropic जैसी कंपनियां इस कमी से जूझ रही हैं. Anthropic के Claude चैटबॉट में अक्सर आउटेज हो रहे हैं. पीक टाइम में वो यूजर्स को टोकन (AI में इस्तेमाल होने वाली यूनिट) की लिमिट लगा रहे हैं.

इतिहास में भी हुई हैं ऐसी दिक्कत
OpenAI ने अपना पॉपुलर Sora वीडियो जेनरेशन ऐप बंद कर दिया, ताकि कंप्यूटिंग रिसोर्स को नए AI मॉडल और एंटरप्राइज प्रोडक्ट्स के लिए बचाया जा सके. OpenAI के API में टोकन यूज अक्टूबर में 6 बिलियन प्रति मिनट से बढ़कर मार्च में 15 बिलियन प्रति मिनट हो गया. मांग इतनी तेज है कि इंफ्रास्ट्रक्चर तैयार करने की स्पीड उससे मैच नहीं कर पा रही. यह समस्या नई नहीं है. इतिहास में रेलवे, टेलीकॉम या इंटरनेट के बूम के समय भी ऐसी ही स्थिति आई थी- मांग संसाधनों से ज्यादा तेज बढ़ जाती है. AI में भी यही हो रहा है.

कंपनियां यूजर्स को आकर्षित करने के लिए प्रतिस्पर्धा कर रही हैं, इसलिए कीमतें बढ़ाना आसान नहीं. नतीजा? आउटेज, लिमिट और कुछ प्रोडक्ट्स को रोकना पड़ रहा है.

अब सबसे बड़ा सवाल- बिजली कितनी खर्च हो रही है?
एक साधारण ChatGPT जैसा प्रॉम्प्ट (टेक्स्ट जवाब) लगभग 0.3 से 0.34 वॉट-घंटे बिजली इस्तेमाल करता है. यह बहुत कम लगता है- एक LED बल्ब को कुछ मिनट चलाने जितना. लेकिन जब अरबों प्रॉम्प्ट रोजाना हो रहे हों, तो आंकड़ा विशाल हो जाता है.

डेटा सेंटर्स पहले से ही दुनिया की कुल बिजली का करीब 1.5% इस्तेमाल कर रहे हैं (लगभग 415 TWh सालाना). AI की वजह से यह मांग तेजी से बढ़ रही है. अनुमान है कि 2030 तक डेटा सेंटर्स की बिजली खपत दोगुनी या उससे ज्यादा हो सकती है.

अमेरिका में डेटा सेंटर्स पहले ही कुल बिजली का 4% इस्तेमाल कर रहे हैं, और AI वाले सर्वर का हिस्सा और बढ़ रहा है. एक बड़े AI डेटा सेंटर की बिजली खपत 1 लाख घरों जितनी हो सकती है. ट्रेनिंग (AI मॉडल को सिखाना) तो बहुत ज्यादा बिजली खाती है, लेकिन रोजाना इस्तेमाल (इन्फरेंस) भी कुल खपत का बड़ा हिस्सा बन रहा है. जितने ज्यादा यूजर्स AI एजेंट्स (जो खुद काम करते हैं) इस्तेमाल करेंगे, उतनी ही बिजली की जरूरत बढ़ेगी.

तो क्या इसका मतलब है AI छोड़ दें?
बिल्कुल नहीं. लेकिन हमें समझना चाहिए कि यह सुविधा मुफ्त नहीं है. यह पर्यावरण पर असर डाल रही है- ज्यादा बिजली का मतलब ज्यादा कोयला, गैस या रिन्यूएबल एनर्जी की जरूरत. कंपनियां खपत सुधार रही हैं, लेकिन मांग इतनी तेज है कि चुनौतियां बनी हुई हैं.

अगली बार जब आप कोई प्रॉम्प्ट डालें, तो याद रखें- पीछे एक पूरा इंफ्रास्ट्रक्चर बिजली खा रहा है. AI हमें प्रोडक्टिव बना रहा है, लेकिन सस्टेनेबल तरीके से इसका इस्तेमाल करना भी जरूरी है. भविष्य में बेहतर चिप्स, ग्रीन एनर्जी और स्मार्ट यूज से यह बैलेंस बन सकता है.


Source link

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button
Close
Crime
Social/Other
Business
Political
Editorials
Entertainment
Festival
Health
International
Opinion
Sports
Tach-Science
Eng News