Anthropic বৃহৎ ভাষার মডেলের (LLMs) ক্ষেত্রে একটি নতুন পথ তৈরি করেছে, ক্লাউড 2.1-এর প্রবর্তন প্রকাশ করে, যা এর প্রসঙ্গ উইন্ডোতে যথেষ্ট 200,000 টোকেন গ্রহণ করতে সক্ষম। এটিকে পরিপ্রেক্ষিতে রাখার জন্য, এটি অর্ধ মিলিয়নেরও বেশি শব্দ বা 500 মুদ্রিত পৃষ্ঠার বেশি ডেটা মূল্যের সমান - একটি অসাধারণ অগ্রগতি, Anthropic বলেছে।
সম্প্রতি চালু হওয়া মডেলটি ডেটা আবাসন প্রসারিত করতে থামে না। এটি নির্ভুলতার ক্ষেত্রে তার পূর্ববর্তীকে ছাড়িয়ে গেছে, বিটা টুলের ব্যবহার অফার করে, সমস্ত খরচ কমিয়ে, Anthropic's অগ্রগামী সিরিজে যথেষ্ট অগ্রগতি চিহ্নিত করে।
Claude 2.1 Claude generative AI চ্যাটবটকে শক্তিশালী করতে সজ্জিত, তার উন্নত বৈশিষ্ট্যগুলি বিনামূল্যে এবং অর্থপ্রদানকারী উভয় ব্যবহারকারীদের কাছে অ্যাক্সেসযোগ্য করে তোলে। একটি ধরা আছে, যদিও! প্রসারিত টোকেন প্রসঙ্গ উইন্ডোটি অর্থপ্রদানকারী প্রো গ্রাহকদের জন্য একটি বিশেষ সুবিধা, যেখানে বিনামূল্যে ব্যবহারকারীরা 100,000 টোকেন সীমাতে সীমাবদ্ধ থাকে। তা সত্ত্বেও, এটি এখনও উল্লেখযোগ্য ব্যবধানে GPT-3.5-এর টোকেন সীমা ছাড়িয়ে গেছে।
ক্লাউড 2.1-এ বিটা টুল অ্যাট্রিবিউট ডেভেলপারদের জন্য নতুন দরজা খুলে দেয়, তাদের এপিআই বুনতে সক্ষম করে এবং ক্লাউড মডেলে সংজ্ঞায়িত ফাংশন। এটি ওপেনএআই-এর মডেলগুলিতে উপস্থিত ক্ষমতাগুলিকে প্রতিফলিত করে, অনুরূপ নমনীয়তা এবং একীকরণ প্রদান করে।
এর আগে, Claude ইতিমধ্যেই টোকেন কনটেক্সট উইন্ডোর ক্ষমতার পরিপ্রেক্ষিতে OpenAI-এর উপরে একটি প্রতিযোগীতামূলক অগ্রগতি অর্জন করেছে, একটি 100,000 টোকেন সীমা গর্ব করে, যতক্ষণ না OpenAI 128,000 টোকেন প্রসঙ্গ উইন্ডো সহ GPT-4 Turbo-এর একটি পূর্বরূপ সংস্করণ প্রকাশ করে। এই মডেলটি, যাইহোক, ChatGPT Plus ব্যবহারকারীরা $20/মাসে সাবস্ক্রাইব করে এবং শুধুমাত্র চ্যাটবট ফর্ম্যাটে অ্যাক্সেসযোগ্য। GPT-4 API ব্যবহার করতে ইচ্ছুক বিকাশকারীদের একটি পে-পার-ব্যবহার সিস্টেম বেছে নিতে হবে।
যদিও একটি বিস্তৃত প্রসঙ্গ উইন্ডো - ডেটার একটি উপস্থাপনা যা এটি একই সাথে বিশ্লেষণ করতে পারে - বিশাল নথি বা তথ্যের বিভিন্ন সেটের জন্য আকর্ষণীয় বলে মনে হতে পারে, তবে এটি নিশ্চিত নয় যে LLMগুলি ছোট অংশগুলির তুলনায় দক্ষতার সাথে বিপুল পরিমাণ ডেটা প্রক্রিয়া করতে পারে কিনা। এআই উদ্যোক্তা এবং বিশেষজ্ঞ, গ্রেগ কামরাড্ট, একটি কৌশলের মাধ্যমে এই সমস্যাটি ঘনিষ্ঠভাবে তদন্ত করছেন যাকে তিনি 'খড়ের গাদায় সুই' বিশ্লেষণ হিসাবে উল্লেখ করেছেন।
এলএলএম-এ দেওয়া একটি বিস্তৃত নথির বিভিন্ন বিভাগে এলোমেলো বিবৃতিগুলি এম্বেড করার মাধ্যমে, তিনি পরীক্ষা করেন যে এলএলএম জিজ্ঞাসা করার সময় বড় নথির মধ্যে তথ্যের ছোট অংশগুলি পুনরুদ্ধার করা হয় কিনা। ক্লড 2.1 এর তার বিশ্লেষণ, যার জন্য তাকে প্রাথমিক অ্যাক্সেস দেওয়া হয়েছিল, এই উপসংহারে পৌঁছেছে যে '200K টোকেনে (প্রায় 470 পৃষ্ঠা), ক্লড 2.1 নির্দিষ্ট নথির গভীরতায় তথ্য স্মরণ করতে সক্ষম হয়েছিল।'
টোকেনগুলি ~90K চিহ্ন লঙ্ঘন করার পরে প্রত্যাহার কার্যক্ষমতা খারাপ হতে শুরু করে এবং ডকুমেন্টের ভিত্তিতে বিশেষভাবে প্রভাবিত হয়েছিল। এই ত্রুটিটি Claude 2.1 এর জন্য একচেটিয়া নয়, GPT-4 তার সর্বাধিক প্রসঙ্গে অনুরূপ অপূর্ণ প্রত্যাহার প্রদর্শন করেছে।
Kamradt-এর গবেষণায় API কলে প্রায় $1,000 খরচ হয়। (জিপিটি-৪-এ সঞ্চালিত একই পরীক্ষার জন্য নৃবিজ্ঞানী ক্রেডিট প্রদান করেছে)। তার টেকওয়েগুলি সামঞ্জস্যপূর্ণ ডেটা পুনরুদ্ধারের অনুমান না করে যত্ন সহকারে প্রম্পট তৈরির গুরুত্ব তুলে ধরে এবং কম ইনপুটগুলি সাধারণত উচ্চতর ফলাফল নিশ্চিত করে।
প্রায়শই, বিকাশকারীরা প্রসঙ্গ উইন্ডোর সম্ভাব্য ক্ষমতা নির্বিশেষে পুনরুদ্ধারের ফলাফলগুলিকে উন্নত করার জন্য বিস্তৃত ডেটাসেট থেকে তথ্য খনন করার সময় ডেটাকে ছোট অংশে বিভক্ত করে।
বর্তমান মডেলগুলিতে সাধারণ দুর্বল দাগগুলি অনুসন্ধান করার জন্য ডিজাইন করা জটিল, বাস্তবিক প্রশ্নগুলির একটি বিস্তৃত সংগ্রহ ব্যবহার করে Claude 2.1 এর নির্ভুলতার একটি মূল্যায়ন পূর্ববর্তী সংস্করণের তুলনায় মিথ্যা বিবৃতিতে 50% হ্রাস প্রকাশ করেছে। Anthropic's ঘোষণা অনুসারে, বর্তমান পুনরাবৃত্তি জাল তথ্য উত্পন্ন করার পরিবর্তে অজ্ঞতা স্বীকার করার সম্ভাবনা বেশি। প্রতিবেদনটি আরও বোধগম্যতা এবং সারসংক্ষেপে উল্লেখযোগ্য অগ্রগতি তুলে ধরে।