Nvidia ने Amazon.com (NASDAQ:AMZN), Alphabet's Google (NASDAQ:GOOGL) और Oracle (NYSE:ORCL) के सहयोग से अगले साल बेहतर संस्करण को रोल आउट करने की योजना के साथ अपनी प्रमुख आर्टिफिशियल इंटेलिजेंस (AI) चिप, H200 में वृद्धि की घोषणा की है। चिप के अपग्रेड मुख्य रूप से बढ़ी हुई हाई-बैंडविड्थ मेमोरी पर ध्यान केंद्रित करते हैं, जिससे बड़ी मात्रा में डेटा का तेजी से प्रसंस्करण होता है।
H200 चिप, जिसे Nvidia की वर्तमान शीर्ष H100 चिप को बदलने के लिए सेट किया गया है, को बड़े AI सिस्टम की जरूरतों को पूरा करने के लिए डिज़ाइन किया गया है। Nvidia, AI चिप बाजार में एक अग्रणी खिलाड़ी, OpenAI की ChatGPT सेवा सहित कई जनरेटिव AI सेवाओं को संचालित करता है। इन सेवाओं से H200 की शुरुआत के साथ प्रश्नों का तेजी से जवाब देने की उम्मीद है, इसकी बढ़ी हुई मेमोरी क्षमता और चिप के प्रसंस्करण तत्वों के साथ तेज़ कनेक्शन को देखते हुए।
अपग्रेड की गई चिप में 141 गीगाबाइट हाई-बैंडविड्थ मेमोरी होगी, जो H100 में मौजूद 80 गीगाबाइट से उल्लेखनीय वृद्धि होगी। जबकि एनवीडिया ने H200 के लिए अपने मेमोरी सप्लायर्स का खुलासा नहीं किया है, माइक्रोन टेक्नोलॉजी ने पहले एनवीडिया के लिए सप्लायर बनने के अपने इरादे का संकेत दिया है। इसके अलावा, एनवीडिया दक्षिण कोरिया के एसके हाइनिक्स से मेमोरी खरीदता है, जिसने हाल ही में बताया कि एआई चिप्स बिक्री में पुनरुत्थान में योगदान दे रहे हैं।
H200 चिप को विभिन्न क्लाउड सेवा प्रदाताओं के माध्यम से उपलब्ध कराया जाएगा, जिसमें Amazon Web Services, Google Cloud, Microsoft (NASDAQ:MSFT) का Azure और Oracle Cloud Infrastructure शामिल हैं। विशेष AI क्लाउड प्रदाता CoreWeave, Lambda, और Vultr भी H200 चिप्स तक पहुंच प्रदान करेंगे। इस कदम से AI सेवाओं के प्रदर्शन में तेजी आने और AI प्रौद्योगिकी के विकसित परिदृश्य में योगदान करने की उम्मीद है।
यह लेख AI के समर्थन से तैयार और अनुवादित किया गया था और एक संपादक द्वारा इसकी समीक्षा की गई थी। अधिक जानकारी के लिए हमारे नियम एवं शर्तें देखें।