نسخه بتای مدل پردازش زبان جدید شرکت OpenAI در دسترس عده محدودی از تسترها قرار گرفته و قابلیتهای فوق العاده آن تحسین بسیاری از آنها را برانگیخته است.
این مدل که Generative Pretrained Transformer یا به اختصار GPT-3 نام دارد، ابزاری است که جملات، متن کوتاه و دادههای دیگر را تحلیل کرده و با استفاده از آنها مقاله بلند یا تصویر تولید میکند.
«Manuel Araoz»، مدیر ارشد فناوری شرکت Zeppelin Solutions توانمندی جالب توجه فناوری GPT-3 را نمایش داد. او با وارد کردن یک فرمان ساده در این ابزار مقالهای پیچیده و ۷۴۶ کلمهای ایجاد کرد.
این مقاله به غیر از چند خطای جزئی در توضیحات جدول و نبود تصاویری که در متن به آنها اشاره شده بود، به سختی از یک مقاله نوشته شده توسط انسان قابل تشخیص است. نکته جالب آنکه این فناوری مقاله را فقط با وارد کردن عنوان، چند برچسب و خلاصهای در حد یک پاراگراف نوشته است.
محققان آرژانتینی از فناوری GPT-3 برای ایجاد مقالههای پیچیده و طبیعی، شعرنویسی به سبک خورخه لوئیس بورخس و آهنگ سازی با شیوه نت نویسی ABC استفاده کردند. یکی دیگر از کاربران تنها با وارد کردن جملات ساده از اجزای مختلف یک وب سایت، کد JSX آنها را تحویل گرفت.
به نظر میرسد آخرین نسخه فناوری GPT-3 بسیار فراتر از نسخههای نسل قبل بوده و هوش مصنوعی آن به لطف ۱۷۵ میلیارد پارامتر یادگیری قادر است هر کاری را انجام دهد. با این تفاسیر GPT-3 بزرگ ترین مدل زبان تا به امروز لقب گرفته و مدل پردازش زبان مایکروسافت به نام Turing-NLG با ۱۷ میلیارد پارامتر یادگیری را با فاصله زیاد پشت سر میگذارد.
دسترسی به رابط برنامه نویسی کاربردی GPT-3 در حال حاضر فقط با دعوتنامه امکان پذیر بوده و از قیمت آن اطلاعاتی منتشر نشده است.
پاسخ ها