क्लाउड 2.1 एलएलएम के आगमन के साथ एंथ्रोपिक ने भाषा प्रसंस्करण गेम को उन्नत किया
एंथ्रोपिक ने अपने नवीनतम प्रकाशन, क्लाउड 2.1 एलएलएम के साथ बड़े भाषा मॉडल (एलएलएम) प्रदर्शनों की सूची में एक महत्वपूर्ण छलांग लगाई है।

Anthropic क्लाउड 2.1 के लॉन्च का खुलासा करते हुए बड़े भाषा मॉडल (एलएलएम) के क्षेत्र में एक नया मुकाम स्थापित किया है, जो अपने संदर्भ विंडो में 200,000 टोकन को पर्याप्त रूप से ग्रहण करने में सक्षम है। इसे परिप्रेक्ष्य में रखने के लिए, यह आधे मिलियन से अधिक शब्दों या 500 मुद्रित पृष्ठों से अधिक डेटा के बराबर है - एक उल्लेखनीय प्रगति, Anthropic कहा।
हाल ही में लॉन्च किया गया मॉडल डेटा आवास का विस्तार करने तक नहीं रुकता है। यह सटीकता के मामले में अपने पूर्ववर्ती से आगे निकल गया है, लागत में कटौती के साथ बीटा टूल के उपयोग की पेशकश करता है, जो Anthropic's अग्रणी श्रृंखला में काफी प्रगति का प्रतीक है।
क्लाउड 2.1, क्लाउड जेनरेटिव एआई चैटबॉट को सशक्त बनाने के लिए सुसज्जित है, जिससे इसकी उन्नत सुविधाएँ मुफ़्त और भुगतान करने वाले दोनों उपयोगकर्ताओं के लिए सुलभ हो जाती हैं। हालाँकि, वहाँ एक पकड़ है! विस्तारित टोकन संदर्भ विंडो भुगतान करने वाले प्रो ग्राहकों के लिए एक विशेष लाभ है, जबकि मुफ़्त उपयोगकर्ता 100,000 टोकन सीमा पर सीमित रहते हैं। फिर भी, यह अभी भी GPT-3.5 की टोकन सीमा से काफी अधिक है।
क्लाउड 2.1 में बीटा टूल विशेषता डेवलपर्स के लिए नए दरवाजे खोलती है, जिससे वे क्लाउड मॉडल में एपीआई और परिभाषित कार्यों को बुनने में सक्षम होते हैं। यह OpenAI के मॉडल में मौजूद क्षमताओं को प्रतिबिंबित करता है, जो समान लचीलेपन और एकीकरण की पेशकश करता है।
इससे पहले, क्लाउड ने पहले से ही टोकन संदर्भ विंडो क्षमता के मामले में ओपनएआई पर प्रतिस्पर्धात्मक बढ़त हासिल कर ली थी, जिसमें 100,000 टोकन सीमा का दावा किया गया था, जब तक कि ओपनएआई ने 128,000 टोकन संदर्भ विंडो के साथ जीपीटी -4 टर्बो का पूर्वावलोकन संस्करण प्रकट नहीं किया। हालाँकि, यह मॉडल $20/माह पर सदस्यता लेने वाले चैटजीपीटी प्लस उपयोगकर्ताओं तक ही सीमित है और केवल चैटबॉट प्रारूप में ही उपलब्ध है। GPT-4 API का उपयोग करने के इच्छुक डेवलपर्स को भुगतान-प्रति-उपयोग प्रणाली का विकल्प चुनना होगा।
यद्यपि एक व्यापक संदर्भ विंडो - डेटा का एक प्रतिनिधित्व जिसका वह एक साथ विश्लेषण कर सकता है - विशाल दस्तावेज़ों या जानकारी के विविध सेटों के लिए आकर्षक लग सकता है, यह निश्चित नहीं है कि एलएलएम छोटे खंडों की तुलना में बड़ी मात्रा में डेटा को कुशलतापूर्वक संसाधित कर सकते हैं या नहीं। एआई उद्यमी और विशेषज्ञ, ग्रेग कामराड्ट, एक ऐसी तकनीक के साथ इस मुद्दे की बारीकी से जांच कर रहे हैं जिसे वह 'भूसे के ढेर में सुई' विश्लेषण के रूप में संदर्भित करते हैं।
एलएलएम में डाले गए व्यापक दस्तावेज़ के विभिन्न अनुभागों में यादृच्छिक कथनों को एम्बेड करके, वह परीक्षण करता है कि क्या एलएलएम से पूछताछ करने पर बड़े दस्तावेज़ों के भीतर जानकारी के छोटे टुकड़े पुनर्प्राप्त किए जाते हैं। क्लाउड 2.1 का उनका विश्लेषण, जिसके लिए उन्हें शीघ्र पहुंच दी गई थी, ने निष्कर्ष निकाला कि '200K टोकन (लगभग 470 पृष्ठ) पर, क्लाउड 2.1 विशिष्ट दस्तावेज़ गहराई पर तथ्यों को याद करने में कामयाब रहा।'
जैसे ही टोकन ~90K के निशान को पार कर गया, रिकॉल प्रदर्शन ख़राब होने लगा और दस्तावेज़ के आधार पर विशेष रूप से प्रभावित हुआ। यह दोष क्लॉड 2.1 के लिए विशिष्ट नहीं है, जीपीटी-4 ने अपने अधिकतम संदर्भ में समान अपूर्ण रिकॉल का प्रदर्शन किया।
कामराड्ट के अध्ययन में एपीआई कॉल पर लगभग $1,000 का खर्च आता है। (एंथ्रोपिक ने GPT-4 पर किए गए समान परीक्षणों के लिए क्रेडिट प्रदान किया)। उनके निष्कर्षों ने सावधानीपूर्वक संकेतों को तैयार करने के महत्व पर प्रकाश डाला, न कि लगातार डेटा पुनर्प्राप्ति की कल्पना की, और कम इनपुट आमतौर पर बेहतर परिणाम सुनिश्चित करते हैं।
अक्सर, संदर्भ विंडो की संभावित क्षमता की परवाह किए बिना, पुनर्प्राप्ति परिणामों को बेहतर बनाने के लिए व्यापक डेटासेट से जानकारी खनन करते समय डेवलपर्स डेटा को छोटे खंडों में विभाजित करते हैं।
मौजूदा मॉडलों में विशिष्ट कमजोर स्थानों की जांच के लिए डिज़ाइन किए गए जटिल, तथ्यात्मक प्रश्नों के व्यापक संग्रह का उपयोग करके क्लाउड 2.1 की सटीकता के मूल्यांकन से पता चला कि पिछले संस्करण की तुलना में गलत बयानों में 50% की गिरावट आई है। Anthropic's घोषणा के अनुसार, वर्तमान पुनरावृत्ति नकली जानकारी उत्पन्न करने के बजाय अज्ञानता को स्वीकार करने की अधिक संभावना है। रिपोर्ट आगे समझ और सारांश में पर्याप्त प्रगति पर प्रकाश डालती है।


