होम पर वापस जाएं मेटा ने एनवीडिया पर निर्भरता कम करने के लिए चार पीढ़ी के कस्टम MTIA AI चिप्स का अनावरण किया प्रौद्योगिकी

मेटा ने एनवीडिया पर निर्भरता कम करने के लिए चार पीढ़ी के कस्टम MTIA AI चिप्स का अनावरण किया

प्रकाशित 21 मार्च 2026 857 दृश्य

मेटा ने आधिकारिक रूप से अपने कस्टम-डिज़ाइन किए गए MTIA (मेटा ट्रेनिंग एंड इनफरेंस एक्सेलेरेटर) चिप्स की चार पीढ़ियों का अनावरण किया है, जो एनवीडिया और AMD जैसे बाहरी चिप आपूर्तिकर्ताओं पर अपनी निर्भरता कम करने के कंपनी के प्रयासों में एक बड़ी वृद्धि का संकेत देता है। 11 मार्च 2026 को की गई यह घोषणा MTIA 300, 400, 450 और 500 प्रोसेसर पेश करती है, जिनमें से प्रत्येक को तेजी से बढ़ती कृत्रिम बुद्धिमत्ता कार्यभार की मांगों को संभालने के लिए डिज़ाइन किया गया है। यह कदम सोशल मीडिया दिग्गज को गूगल, अमेज़न और माइक्रोसॉफ्ट जैसे अन्य हाइपरस्केलरों के साथ मालिकाना AI सिलिकॉन विकसित करने की दौड़ में खड़ा करता है।

MTIA 300, जो पहले से ही कंपनी के डेटा सेंटरों में तैनात है, इस चिप परिवार की नींव के रूप में काम करता है। यह कंटेंट रैंकिंग और रिकमेंडेशन सिस्टम के लिए उपयोग किए जाने वाले छोटे AI मॉडलों को प्रशिक्षित करने के लिए अनुकूलित है, जो ऐसे कार्य हैं जो यह निर्धारित करते हैं कि अरबों उपयोगकर्ता प्लेटफ़ॉर्म के फ़ीड, विज्ञापनों और सुझाए गए कंटेंट का अनुभव कैसे करते हैं। हालांकि यह सबसे गहन जनरेटिव AI कार्यों के लिए डिज़ाइन नहीं किया गया है, MTIA 300 ने रोज़मर्रा के उपयोगकर्ता इंटरैक्शन को शक्ति प्रदान करने वाले इनफरेंस अनुरोधों की विशाल मात्रा को संभालने में अपना मूल्य साबित किया है।

इस नींव पर निर्माण करते हुए, MTIA 400 एक महत्वपूर्ण छलांग का प्रतिनिधित्व करता है। यह कंपनी द्वारा विकसित पहला चिप है जिसका कच्चा प्रदर्शन स्तर बाज़ार में वर्तमान में उपलब्ध प्रमुख वाणिज्यिक उत्पादों के साथ प्रतिस्पर्धी है। MTIA 400 दोहरे कंप्यूट चिपलेट आर्किटेक्चर का उपयोग करता है, जो इसे जनरेटिव AI कार्यभार का समर्थन करने में सक्षम बनाता है जो पहले विशेष रूप से तीसरे पक्ष के हार्डवेयर द्वारा संभाले जाते थे। यह चिप उस बिंदु को चिह्नित करता है जहां कंपनी का इन-हाउस सिलिकॉन एक पूरक भूमिका से मांगपूर्ण AI प्रसंस्करण कार्यों के लिए एक वास्तविक विकल्प बन जाता है।

MTIA 450 MTIA 400 की तुलना में उच्च-बैंडविड्थ मेमोरी (HBM) बैंडविड्थ को दोगुना करके प्रदर्शन को और आगे बढ़ाता है। कंपनी के अनुसार, यह HBM बैंडविड्थ मौजूदा प्रमुख वाणिज्यिक उत्पादों से अधिक है, जो मेमोरी-गहन AI संचालन के लिए एक महत्वपूर्ण लाभ प्रदान करता है। बढ़ी हुई बैंडविड्थ चिप को अपने प्रोसेसिंग कोर को अधिक तेज़ी से डेटा फ़ीड करने की अनुमति देती है, जिससे बड़े भाषा मॉडल और अन्य जनरेटिव AI अनुप्रयोगों के लिए प्रशिक्षण और इनफरेंस दोनों को धीमा करने वाली बाधाएं कम होती हैं।

भविष्य की ओर देखते हुए, MTIA 500 MTIA 450 की तुलना में HBM बैंडविड्थ को अतिरिक्त 50 प्रतिशत बढ़ाता है, जो इसे विकास में सबसे कुशल जनरेटिव AI इनफरेंस चिप्स में से एक के रूप में स्थापित करता है। कंपनी ने लगभग हर छह महीने में एक नई चिप पीढ़ी के आगमन के साथ एक आक्रामक रिलीज़ ताल के प्रति प्रतिबद्धता जताई है। यह तीव्र पुनरावृत्ति चक्र यह सुनिश्चित करने के लिए डिज़ाइन किया गया है कि कंपनी का कस्टम सिलिकॉन AI अवसंरचना की तेज़ी से बढ़ती मांगों के साथ तालमेल बनाए रखे।

उद्योग विश्लेषकों ने नोट किया है कि MTIA रोडमैप द्वारा प्रदर्शित विकास की गति उल्लेखनीय है, विशेष रूप से प्रतिस्पर्धी AI एक्सेलेरेटर डिज़ाइन करने की जटिलता को देखते हुए। पहले से तैनात MTIA 300 से आगामी MTIA 500 तक का संक्रमण क्षमताओं की एक विस्तृत श्रृंखला को फैलाता है, कंटेंट रैंकिंग से लेकर उच्च-स्तरीय जनरेटिव AI इनफरेंसिंग तक। क्या ये चिप्स बड़े पैमाने पर एनवीडिया और AMD के स्थापित उत्पादों के प्रदर्शन की बराबरी या उससे आगे निकल सकते हैं, यह देखना बाकी है, लेकिन कस्टम सिलिकॉन विकास के प्रति प्रतिबद्धता दुनिया की सबसे बड़ी प्रौद्योगिकी कंपनियों के बीच AI अवसंरचना निवेश की दिशा के बारे में एक स्पष्ट संकेत भेजती है।

स्रोत: CNBC, Tom's Hardware, The Register, Meta AI Blog

टिप्पणियाँ