
مدلهای جدید OpenAI بهصورت وزن-باز یا Open-Weight منتشر شدهاند.
OpenAI امروز از دو مدل استدلالگر جدید رونمایی کرده که توسعهدهندگان میتوانند از آنها برای شناسایی و دستهبندی انواع آسیبهای آنلاین در پلتفرمهای خود استفاده کنند.
به گزارش CNBC، این مدلها با نامهای gpt-oss-safeguard-120b و gpt-oss-safeguard-20b معرفی شدهاند که اندازه آنها هم مشخص است و نسخههای تطبیقیافته و بهینهشده مدلهای gpt-oss هستند که OpenAI در آگوست ارائه داده بود.
این مدلها بهعنوان مدلهای وزن-باز (open-weight) عرضه شدهاند، به این معنا که پارامترهای مدل که کیفیت خروجی و دقت پیشبینیها را تعیین میکنند، بهصورت عمومی در دسترس هستند. این نوع مدلها امکان شفافیت و کنترل بیشتر را برای کاربران فراهم میکنند، و اندکی با مدلهای متنباز که کد منبع آنها برای ویرایش و شخصیسازی در دسترس است، تفاوت دارند.

OpenAI اعلام کرده است که سازمانها میتوانند این مدلها را با سیاستها و نیازهای خاص خود تنظیم کنند. از آنجایی که این مدلها قابلیت استدلال و توضیح روند تصمیمگیری خود را دارند، توسعهدهندگان میتوانند بهطور مستقیم دریابند که مدل چگونه به یک نتیجه مشخص رسیده است. برای مثال، یک سایت نقدوبررسی محصولات میتواند از مدلهای gpt-oss-safeguard برای شناسایی بررسیهای جعلی استفاده کند یا یک انجمن بازیهای ویدیویی میتواند پستهای مرتبط با تقلب و تخلفات را طبقهبندی کند.
این مدلها با همکاری دیسکورد، SafetyKit و ROOST که آخری یک سازمان فعال در زمینه ایجاد زیرساختهای ایمنی برای هوش مصنوعی است، توسعه یافتهاند. درحالحاضر مدلها در حالت پیشنمایش تحقیقاتی ارائه شدهاند و OpenAI قصد دارد از بازخورد پژوهشگران و متخصصان ایمنی بهرهمند شود.
معرفی این مدلها میتواند به OpenAI کمک کند تا به برخی منتقدانش پیرامون تجاریسازی سریع و رشد بدون توجه به اخلاق و ایمنی هوش مصنوعی پاسخی داده باشد. ارزش OpenAI اکنون حدود 500 میلیارد دلار است و چتبات ChatGPT بیش از 800 میلیون کاربر فعال هفتگی دارد. روز سهشنبه OpenAI اعلام کرد که ساختار سازمانی خود را بازسازی کرده است.
کاربران میتوانند وزن مدلها را از Hugging Face دانلود کنند. «کامیل فرانسوا»، رئیس ROOST، در بیانیهای گفت:
«با پیشرفت سریع هوش مصنوعی، ابزارهای ایمنی و تحقیقات بنیادی نیز باید همزمان پیشرفت کنند و برای همه قابل دسترس باشند.»
پاسخ ها