حمید پیمان فر

حمید پیمان فر

برنامه نویس ارشد در حوزه بازی سازی، ساکن هلند

DeepMind گوگل عملکرد مدل های هوش مصنوعی را با معماری جدید PEER بهبود می بخشد

دیپ‌مایند گوگل با معماری جدید PEER عملکرد مدل‌های هوش مصنوعی را بهبود می‌بخشد

گوگل با معرفی معماری PEER قصد دارد محدودیت‌های مدل‌های هوش مصنوعی را برطرف کند و هزینه‌ها را پایین بیاورد.

تکنیک «ترکیب متخصصان» (MoE) به رویکردی محبوب برای افزایش مقیاس مدل‌های زبانی بزرگ بدون افزایش هزینه‌های محاسباتی تبدیل شده است. اکنون دیپ‌مایند گوگل با معرفی معماری PEER قصد دارد محدودیت‌های این تکنیک را برطرف کند تا عملکرد هوش مصنوعی را بهبود دهد و هزینه‌های توسعه آن را تعدیل کند.

در تکنیک MoE به‌جای استفاده از کل ظرفیت مدل برای هر ورودی، داده‌ها به ماژول‌های کوچکی موسوم به «متخصص» هدایت می‌شوند. بااین‌حال، تکنیک‌های فعلی MoE محدودیت‌هایی دارند که آن‌ها را منحصر به تعداد نسبتاً کمی از این متخصصان می‌کند. دیپ‌مایند گوگل در مقاله‌ای جدید، معماری PEER را معرفی کرده که می‌تواند مدل‌های MOE را به میلیون‌ها متخصص تقسیم کند و عملکرد محاسباتی مدل‌های زبانی بزرگ را بهبود بخشد.

چندین مدل هوش مصنوعی محبوب ازجمله Mistral ،Grok و GPT-4 از تکنیک MoE بهره می‌برند.

معماری جدید PEER دیپ‌مایند گوگل

براساس گزارش VentureBeat، معماری جدید محققان دیپ‌مایند این باور قدیمی را زیر سؤال می‌برد که مدل‌های MoE با تعداد محدودی از «متخصصان» به اوج بازدهی می‌رسند. PEER نشان می‌دهد با استفاده از مکانیسم‌های بازیابی و مسیریابی مناسب، می‌توان MoE را به میلیون‌ها «متخصص» تقسیم کرد. این رویکرد می‌تواند در کاهش بیشتر هزینه‌ها و پیچیدگی آموزش مؤثر باشد و به ارائه مدل‌های زبانی بسیار بزرگ کمک کند.

معماری PEER دیپ‌مایند

چند سال گذشته، مشخص شد افزایش مقیاس مدل‌های زبانی با افزایش تعداد پارامترهای آن‌ها عملکرد و قابلیت‌های جدید را بهبود می‌دهد. همچنین محققان دریافته‌اند که افزایش «دانه‌بندی» (Granularity) یک مدل MOE که به تعداد متخصصان آن اشاره دارد، می‌تواند منجر به افزایش عملکرد شود، به‌ویژه زمانی که همراه افزایش اندازه مدل و داده‌های آموزشی باشد.

همچنین MoE با دانه‌بندی بالا می‌تواند مدل‌ها را قادر سازد تا دانش جدید را مؤثرتر بیاموزند. بااین‌حال یکی از محدودیت‌های فعلی این است که این مدل‌ها معمولاً مسیریاب‌های ثابتی دارند که برای تعداد خاصی از متخصصان طراحی شده‌اند و با اضافه‌ شدن متخصصان جدید نیاز به تنظیم مجدد دارند.

اکنون معماری PEER به مسائل و محدودیت‌های مقیاس‌بندی MoE می‌پردازد. برای هر ورودی، PEER ابتدا از محاسبات اولیه سریع ایجاد فهرست کوتاهی از گزینه‌های مختلف برای انتخاب و فعال‌کردن متخصصان مناسب استفاده می‌کند. این مکانیسم MoE را قادر می‌سازد تا تعداد بسیار زیادی از متخصصان را بدون کاهش سرعت مدیریت کند.

گوگل احتمالاً از معماری PEER در مدل‌های جمینای 1.5 استفاده خواهد کرد.

حمید پیمان فر
حمید پیمان فر برنامه نویس ارشد در حوزه بازی سازی، ساکن هلند

شاید خوشتان بیاید

پاسخ ها

نظر خود را درباره این پست بنویسید
منتظر اولین کامنت هستیم!
آیدت: فروش فایل، مقاله نویسی در آیدت، فایل‌های خود را به فروش بگذارید و یا مقالات‌تان را منتشر کنید👋