Google, Microsoft और Amazon जैसी बड़ी टेक कंपनियाँ इस समय एआई और क्लाउड-इन्फ्रास्ट्रक्चर में निवेश की गति फिर से बढ़ा रही हैं…

उन्होंने पिछले 12 महीनों में सैकड़ों अरब डॉलर की पूंजी निवेश की सूचना दी है, और अब “कंप्यूटिंग शक्ति की कमी” की समस्या सामने आ रही है।
सबसे बड़ी टेक्नोलॉजी और आर्थिक खबरों में से एक है। आइए विस्तार से समझते हैं कि Google, Microsoft और Amazon जैसी दिग्गज कंपनियों में AI और क्लाउड इंफ्रास्ट्रक्चर में निवेश का बूम क्यों आया है, और “कंप्यूटिंग पावर की कमी” (shortage of computing capacity) का क्या मतलब है।

🌐 1️⃣ पृष्ठभूमि : एआई बूम का दूसरा चरण
2023–24 के दौरान ChatGPT, Gemini, Copilot और Claude जैसे AI मॉडल्स के आने के बाद से टेक उद्योग में AI कंप्यूटिंग की मांग कई गुना बढ़ गई है।
अब 2025 में यह मांग और तेज़ हो गई है क्योंकि —
- कंपनियाँ अपने AI चैटबॉट्स, एजेंट्स और क्लाउड सेवाओं को और शक्तिशाली बना रही हैं।
- व्यवसायिक उपयोग (AI for productivity, healthcare, finance, education आदि) में तेज़ी से विस्तार हो रहा है।
- हर सेक्टर को “AI-ready” बनाने की दौड़ चल रही है।
💰 2️⃣ भारी निवेश — कितनी राशि लगाई जा रही है
Microsoft, Google और Amazon — इन तीन कंपनियों ने मिलकर पिछले 12 महीनों में लगभग $300 अरब (लगभग ₹25 लाख करोड़) से अधिक पूंजी AI इंफ्रास्ट्रक्चर पर लगाई है।
इन निवेशों का बड़ा हिस्सा जा रहा है:
- डेटा सेंटर्स के विस्तार में
- NVIDIA और AMD के AI चिप्स की खरीद में
- ऊर्जा-कुशल सर्वर्स और नेटवर्क अपग्रेड करने में
- क्लाउड-AI सेवाओं (Azure AI, Google Cloud Vertex, AWS Bedrock) को स्केल करने में
उदाहरण के लिए —
- Microsoft ने अपने क्लाउड डिवीजन Azure में लगभग $120 अरब का पूंजी निवेश किया है।
- Google ने अपने Tensor Processing Units (TPUs) और डेटा सेंटर नेटवर्क में $90 अरब लगाए हैं।
- Amazon (AWS) ने $80 अरब से अधिक खर्च कर AI-सक्षम क्लाउड सर्विसेज़ जैसे Bedrock और Q-Assistant लॉन्च किए हैं।
⚙️ 3️⃣ “कंप्यूटिंग पावर की कमी” क्या है?
AI मॉडल्स (खासकर LLMs जैसे GPT-5 या Gemini 2) को ट्रेन करने और चलाने के लिए हजारों GPU (Graphics Processing Units) और बहुत तेज़ नेटवर्किंग की ज़रूरत होती है।
अब यह स्थिति बन गई है कि —
- NVIDIA H200 और B200 AI चिप्स की सप्लाई मांग के मुकाबले काफी कम है।
- कई स्टार्टअप्स और रिसर्च कंपनियों को GPU रेंटल के लिए महीनों तक वेट करना पड़ रहा है।
- डेटा सेंटर्स को ठंडा रखने के लिए पानी और बिजली की भारी खपत हो रही है, जिससे एनर्जी संकट की स्थिति बन रही है।
📊 4️⃣ आगे का असर
इस ट्रेंड के कई बड़े असर होंगे:
- AI सेवाओं की कीमतें बढ़ सकती हैं (क्लाउड और API दोनों स्तर पर)।
- ऊर्जा खपत और कार्बन फुटप्रिंट को लेकर नए पर्यावरणीय नियम लागू हो सकते हैं।
- NVIDIA जैसी चिप कंपनियों की मांग और मुनाफ़ा रिकॉर्ड स्तर पर बना रहेगा।
- भारत, सिंगापुर और UAE जैसे देश डेटा सेंटर हब के रूप में उभर रहे हैं — भारत में अगले 2 वर्षों में 50+ नए डेटा सेंटर बन रहे हैं।
🧠 5️⃣ भविष्य की दिशा
- Google और Microsoft दोनों अब “AI compute sharing” मॉडल पर काम कर रहे हैं — यानी अपनी अतिरिक्त GPU क्षमता को छोटे डेवलपर्स को किराए पर देना।
- साथ ही, custom AI chips (जैसे Google TPU v6 और Amazon Trainium 2) विकसित किए जा रहे हैं ताकि NVIDIA पर निर्भरता घटे।
- विशेषज्ञों का अनुमान है कि 2026 तक यह निवेश $500 अरब तक पहुँच सकता है।



