মেটা OPT-175B প্রবর্তন করে, গবেষণার জন্য বৃহৎ-স্কেল ভাষার এআই মডেলগুলিতে অ্যাক্সেসকে গণতন্ত্রীকরণ করে
Meta, পূর্বে Facebook, সম্প্রতি তার Open Pretrained Transformer (OPT-175B) লঞ্চ করার ঘোষণা দিয়েছে, 100 বিলিয়নেরও বেশি প্যারামিটার সমন্বিত একটি বৃহৎ মাপের ভাষা এআই মডেল। একটি অ-বাণিজ্যিক লাইসেন্সের অধীনে উপলব্ধ, এই মডেলটির লক্ষ্য গবেষণার উদ্দেশ্যে শক্তিশালী AI-তে অ্যাক্সেসকে গণতান্ত্রিক করা এবং সাধারণত গভীর শিক্ষার সাথে যুক্ত কার্বন ফুটপ্রিন্টকে সম্বোধন করা।

Meta, পূর্বে Facebook নামে পরিচিত, তার Open Pretrained Transformer (OPT-175B) উন্মোচন করেছে, একটি বিস্তৃত ভাষা এআই মডেল যা 100 বিলিয়নের বেশি প্যারামিটার নিয়ে গর্ব করে। এই অসাধারণ উন্নয়নটি তাদের সাম্প্রতিক ব্লগ পোস্টে বর্ণিত অত্যাধুনিক AI গবেষণায় অ্যাক্সেসকে গণতান্ত্রিক করার জন্য প্রযুক্তি জায়ান্টের প্রচেষ্টার প্রতিনিধিত্ব করে।
একটি অ-বাণিজ্যিক লাইসেন্সের অধীনে, মডেলটি প্রাথমিকভাবে গবেষণার উদ্দেশ্যে উপলব্ধ করা হবে। বিশ্বব্যাপী একাডেমিক গবেষকদের পাশাপাশি সরকার, সুশীল সমাজ এবং শিল্প গবেষণা গবেষণাগারগুলিতে অ্যাক্সেস দেওয়া হবে। যাইহোক, গবেষকদের অ্যাক্সেসের পরিমাণ অনিশ্চিত রয়ে গেছে। যারা মডেলটি ব্যবহার করতে আগ্রহী তারা সহজভাবে একটি অনুরোধ ফর্ম পূরণ করতে পারেন।
বড় ভাষার মডেল বোঝা
বৃহৎ ভাষার মডেলগুলি হল উন্নত প্রাকৃতিক ভাষা প্রক্রিয়াকরণ ব্যবস্থা, যা বিভিন্ন বিন্যাসে সৃজনশীল এবং সুসংগত বিষয়বস্তু তৈরি করতে প্রচুর পরিমাণে পাঠ্যের উপর প্রশিক্ষিত। এই ধরনের মডেলগুলি সংবাদ নিবন্ধ, আইনি সারাংশ, চলচ্চিত্রের স্ক্রিপ্ট তৈরি করতে পারে এবং এমনকি গ্রাহক পরিষেবা চ্যাটবট হিসাবে কাজ করতে পারে।
OpenAI-এর GPT-3 হল শিল্পের প্রধান বৃহৎ ভাষার মডেলগুলির মধ্যে একটি, ব্যক্তিগত এবং বাণিজ্যিক ব্যবহারের জন্য 175 বিলিয়নের বেশি প্যারামিটার রয়েছে। একইভাবে, Meta-এর OPT-175B শুধুমাত্র একটি বৃহৎ-স্কেল ভাষার মডেল নয়, একটি সহগামী কোডবেস, এবং প্রশিক্ষণ প্রক্রিয়ার বিশদ বিবরণের ব্যাপক ডকুমেন্টেশন প্রদান করে। Meta কম প্যারামিটার সহ ছোট-স্কেল বেসলাইন মডেলগুলির একটি সিরিজও চালু করেছে।
গভীর শিক্ষার কার্বন পদচিহ্ন সম্বোধন করা
বেশিরভাগ উদ্ভাবনী এআই গবেষণা Google, Meta, মাইক্রোসফ্ট এবং এনভিডিয়ার মতো বড় প্রযুক্তি কর্পোরেশন দ্বারা চালিত হয়। বৃহৎ এআই মডেলের প্রশিক্ষণ এবং পরিচালনার জন্য প্রচুর পরিমাণে গণনাগত শক্তি এবং শক্তির প্রয়োজন হয়, যার ফলে উল্লেখযোগ্য ব্যয় হয় এবং একটি সম্ভাব্য বড় কার্বন পদচিহ্ন। রয় শোয়ার্টজ এবং জেসি ডজের 2019 সালের একটি গবেষণায় জানা গেছে যে গভীর শিক্ষার গণনা প্রতি কয়েক মাসে দ্বিগুণ হয়, যা 2012 থেকে 2018 পর্যন্ত আনুমানিক 300,000 গুণ বৃদ্ধির দিকে পরিচালিত করে – এবং একটি উল্লেখযোগ্য পরিবেশগত প্রভাব।
মেটা OPT-175B-এর কার্বন ফুটপ্রিন্ট OpenAI-এর GPT-3-এর এক-সপ্তমাংশে কমিয়ে কার্বন সমস্যার সমাধান করেছে বলে দাবি করেছে। কোম্পানি বলেছে যে তারা মডেলটিকে 992 এনভিডিয়া এ100 জিপিইউ (প্রতিটি 80 গিগাবাইট) এর উপর প্রশিক্ষণ দিয়েছে, যার মোট কার্বন-নিঃসরণ ফুটপ্রিন্ট মাত্র 75 টন, জিপিটি-3 এর আনুমানিক 500 টন তুলনায়। ওপেনএআই এই দাবিগুলির বিষয়ে এখনও কোনও মন্তব্য করেনি।
ভবিষ্যতের প্রভাব
Meta এর সাম্প্রতিক ঘোষণার সাথে গভীর শিক্ষার গবেষণা উদ্ভাবনে একটি ঢেউ দেখার প্রত্যাশা করুন। যাইহোক, প্রযুক্তিগত অগ্রগতির পাশাপাশি, AI এর দায়িত্বশীল ব্যবহারকে ঘিরে নৈতিক প্রশ্নগুলি অবশ্যই বিশ্বব্যাপী সমাধান করা উচিত। মেটা আশা প্রকাশ করে যে AI সম্প্রদায় - একাডেমিক গবেষক, সুশীল সমাজ, নীতিনির্ধারক এবং শিল্প পেশাদারদের অন্তর্ভুক্ত - উত্তর খুঁজতে একসাথে যোগদান করবে। OPT-175B-এর মতো আরও শক্তিশালী টুলের আবির্ভাব হওয়ায়, AI উদ্ভাবনে অ্যাক্সেসের গণতন্ত্রীকরণ AppMaster মতো প্ল্যাটফর্মগুলির জন্য তাদের নিজস্ব no-code সমাধানগুলিতে এই ধরনের অগ্রগতিগুলিকে একীভূত করার একটি সুযোগ উপস্থাপন করে, ব্যবহারকারীদের বিভিন্ন শিল্পের জন্য ব্যাপক অ্যাপ্লিকেশন বিকাশে আরও ক্ষমতায়ন করে।


