মেটা মঙ্গলবার জনসাধারণের কাছে তার সর্বশেষ এবং বৃহত্তম কৃত্রিম বুদ্ধিমত্তা (AI) মডেল প্রকাশ করেছে। Meta Llama 3.1 405B নামে পরিচিত, কোম্পানি বলে যে ওপেন-সোর্স মডেলটি বিভিন্ন বেঞ্চমার্ক জুড়ে GPT-4, GPT-4o, এবং Claude 3.5 সনেটের মতো প্রধান বন্ধ AI মডেলগুলিকে ছাড়িয়ে যায়৷ আগের মুক্তি Llama 3 8B এবং 70B AI মডেলগুলিও আপগ্রেড করা হয়েছে। নতুন সংস্করণগুলি 405B মডেল থেকে ডিস্টিলিং করা হয়েছিল এবং এখন একটি 1,28,000 টোকেন প্রসঙ্গ উইন্ডো অফার করে। মেটা দাবি করে যে এই দুটি মডেলই এখন তাদের আকারের জন্য শীর্ষস্থানীয় ওপেন সোর্স বড় ভাষা মডেল (LLM)।
একটি ব্লগে নতুন এআই মডেলের ঘোষণা পোস্টপ্রযুক্তি সমষ্টি বলেছে, “Llama 3.1 405B হল প্রথম খোলামেলা উপলব্ধ মডেল যা সাধারণ জ্ঞান, স্টিয়ারিবিলিটি, গণিত, টুল ব্যবহার এবং বহুভাষিক অনুবাদে অত্যাধুনিক ক্ষমতার ক্ষেত্রে শীর্ষ AI মডেলগুলির প্রতিদ্বন্দ্বী৷”
উল্লেখযোগ্যভাবে, 405B এখানে 405 বিলিয়ন প্যারামিটারকে বোঝায়, যা LLM-এর জ্ঞান নোডের সংখ্যা হিসাবে বোঝা যায়। প্যারামিটারের আকার যত বেশি হবে, একটি এআই মডেল জটিল প্রশ্নগুলি পরিচালনায় তত বেশি পারদর্শী। মডেলের প্রসঙ্গ উইন্ডো হল 128,000 টোকেন। এটি ইংরেজি, জার্মান, ফ্রেঞ্চ, ইতালীয়, পর্তুগিজ, হিন্দি, স্প্যানিশ এবং থাই ভাষা সমর্থন করে।
কোম্পানি দাবি করে যে Llama 3.1 405B একাধিক দক্ষতা জুড়ে 150 টিরও বেশি বেঞ্চমার্ক পরীক্ষায় মূল্যায়ন করা হয়েছিল। পোস্টে ভাগ করা ডেটার উপর ভিত্তি করে, Meta-এর AI মডেল গ্রেড স্কুল ম্যাথ 8K (GSM8K) GPT-4-এর 94.2, GPT-4o-এর 96.1, এবং ক্লদ 3.5 সনেটের 96.4-এ 96.8 স্কোর করেছে। এটি বিজ্ঞানের দক্ষতার জন্য AI2 এর রিজনিং চ্যালেঞ্জ (ARC) বেঞ্চমার্ক, টুল ব্যবহারের জন্য Nexus এবং বহুভাষিক গ্রেড স্কুল ম্যাথ (MGSM) বেঞ্চমার্কে এই মডেলগুলিকে ছাড়িয়ে গেছে।
মেটার সবচেয়ে বড় AI মডেলটিকে 16 হাজারেরও বেশি Nvidia H100 GPU সহ 15 ট্রিলিয়ন টোকেনে প্রশিক্ষণ দেওয়া হয়েছিল৷ Llama 3.1 405B-এর প্রধান ভূমিকাগুলির মধ্যে একটি হল টুল-কলিংয়ের জন্য অফিসিয়াল সমর্থন যা ডেভেলপারদের ওয়েব অনুসন্ধানের জন্য সাহসী অনুসন্ধান, জটিল গাণিতিক গণনা করতে ওলফ্রাম আলফা এবং পাইথন কোড তৈরি করতে কোড ইন্টারপ্রেটার ব্যবহার করার অনুমতি দেবে।
যেহেতু মেটা লামা 3.1 405B ওপেন সোর্সে পাওয়া যায়, তাই ব্যক্তিরা কোম্পানির যেকোনো একটি থেকে এটি অ্যাক্সেস করতে পারেন ওয়েবসাইট অথবা তার আলিঙ্গন মুখ থেকে তালিকা. যাইহোক, একটি বড় মডেল হওয়ায় এটি চালানোর জন্য প্রায় 750GB ডিস্ক স্টোরেজ স্পেস প্রয়োজন। অনুমান করার জন্য, মডেল প্যারালাল 16 (MP16) এর দুটি নোডও প্রয়োজন হবে। মডেল সমান্তরালতা 16 হল মডেল সমান্তরালতার একটি নির্দিষ্ট বাস্তবায়ন যেখানে একটি বৃহৎ নিউরাল নেটওয়ার্ক 16টি ডিভাইস বা প্রসেসরে বিভক্ত।
সর্বজনীনভাবে উপলব্ধ হওয়া ছাড়াও, মডেলটি AWS, Nvidia, Databricks, Groq, Dell, Azure, Google Cloud, Snowflake এবং আরও অনেক কিছুর প্রধান AI প্ল্যাটফর্মে উপলব্ধ। কোম্পানি বলেছে যে এই ধরনের মোট 25টি প্ল্যাটফর্ম Llama 3.1 405B দ্বারা চালিত হবে। নিরাপত্তা এবং নিরাপত্তার জন্য, কোম্পানি Llama Guard 3 এবং Prompt Guards ব্যবহার করেছে, দুটি নতুন টুল যা LLM কে সম্ভাব্য ক্ষতি এবং অপব্যবহার থেকে রক্ষা করে।