این مشاور ارشد، جدیدترین عضو ارشد تیمهای ایمنی OpenAI است که این استارتاپ را ترک میکند.
«مایلز براندیج»، مشاور ارشد OpenAI در توسعه AGI (هوش جامع مصنوعی با عملکردی در سطح انسان)، بهتازگی خروج خود از این استارتاپ را اعلامکرده و همچنین این هشدار جدی را داده است که هنوز هیچکس برای AGI آمادگی ندارد، حتی خود OpenAI.
براندیج که شش سال روی توسعه ابتکارات ایمنی هوش مصنوعی OpenAI کار کرده است، در پستی با عنوان «چرا OpenAI را ترک کردم و چه برنامههایی برای آینده دارم» میگوید:
«نه OpenAI و نه هیچ آزمایشگاه دیگری برای AGI آماده نیست و جهان نیز آمادگی مواجهشدن با آن را ندارد.»
او در ادامه پست خود نوشته است:
«اینکه آیا شرکت و جهان در مسیر آمادگی برای AGI قرار دارند یا نه، تابعی پیچیده از نحوه اجرای فرهنگ ایمنی و امنیت در طول زمان، نحوه تاثیر مقررات بر انگیزههای سازمانی، ارائه حقایق در مورد قابلیتهای هوش مصنوعی و دشواری ایمنی آنها و عوامل مختلف دیگری است.»
براندیج از محدودیتهایی که OpenAI برای آزادی تحقیقات و انجام آزمایشها تعریف کرده بهعنوان یکی از دلایل خروج خود یاد کرده است. او همچنین به اهمیت وجود افراد مستقل در بحثهای مربوط به سیاستهای هوش مصنوعی که بدون تعصبات خاصی نظر میدهند، اشاره کرده است.
بااینوجود، براندیج جدیدترین عضو ارشد تیمهای ایمنی OpenAI محسوب میشود که این استارتاپ را ترک میکند. پیش از این، «یان لیکه»، محقق برجسته و «ایلیا سوتسکور»، یکی از بنیانگذاران OpenAI نیز این استارتاپ را ترک کرده بودند. همچنین سوتسکور استارتاپ هوش مصنوعی خود با تمرکز روی توسعه ایمن AGI را تأسیس کرده است.
نکته قابلتوجه دیگری که براندیج در پست خود به آن اشاره کرده، انحلال تیم «آمادگی AGI» است. OpenAI پیش از این نیز تیم «Superalignment» که روی کاهش خطرات بلندمدت هوش مصنوعی تمرکز داشتند را منحل کرده بود.
با وجود ناسازگاریهای اشارهشده، براندیج ادعا کرده که OpenAI با ارائه بودجه، اعتبارات API و دسترسی به مدلهای اولیه، از فعالیتهای آینده او حمایت خواهد کرد.
پاسخ ها