مدیر ارشد OpenAI در نامه خود از قانون نوآوری ایمن برای مدلهای هوش مصنوعی مرزی موسوم به SB 1047 انتقاد کرده است.
«جیسون کوون»، مدیر ارشد استراتژی OpenAI در نامهای با اشاره به یک لایحه ایمنی در حال بررسی در کالیفرنیا، گفته که تنظیم مقررات هوشمصنوعی باید به دولت فدرال سپرده شود. کوون میگوید که این لایحه ایمنی میتواند سرعت پیشرفت هوش مصنوعی را آهستهتر کند و باعث شود تا شرکتها این ایالت را ترک کنند.
براساس گزارش ورج، در این نامه خطاب به سناتور ایالتی کالیفرنیا، «اسکات وینر» که قانون نوآوری ایمن برای مدلهای هوش مصنوعی مرزی موسوم به «SB 1047» را پیشنهاد کرده، نوشته شده است:
«مجموعهای از سیاستهای هوش مصنوعی تنظیمشده توسط فدرال، بهجای مجموعهای از قوانین ایالتی، نوآوری را تقویت میکند و ایالات متحده را در مسیر رهبری توسعه استانداردهای جهانی قرار میدهد. در نتیجه، ما به دیگر آزمایشگاههای هوش مصنوعی، توسعهدهندگان، کارشناسان و اعضای هیئت کنگره کالیفرنیا در مخالفت محترمانه با SB 1047 میپیوندیم و از وجود فرصتی برای بیان برخی از نگرانیهای اصلی خود استقبال میکنیم.»
وینر و سایر طرفداران این قانون میگویند که با SB 1047 میتوان استانداردهایی را قبل از توسعه مدلهای هوش مصنوعی قدرتمند ایجاد کرد.
همچنین آنها میگویند که این قانون شرکتها را به انجام برخی اقدامات پیشگیرانه مانند تست امنیت مدلهای قبل از استقرار ملزم میکند، در آزمایشگاههای هوشمصنوعی از افشاگران محافظت میکند، به دادستان کل کالیفرنیا این اختیار را میدهد تا در صورت آسیبرساندن به مدلهای هوش مصنوعی، اقدام قانونی انجام دهد و درنهایت خواستار ایجاد یک «خوشه رایانه ابری عمومی» به نام CalCompute میشود.
وینر در پاسخ به نامه مدیر ارشد OpenAI، اشاره میکند که الزامات پیشنهادی برای هر شرکتی که در کالیفرنیا تجارت میکند، بدون در نظر گرفتن این موضوع که مقر آنها در این ایالت است یا نیست، اعمال میشود، بنابراین استدلال مطرحشده در نامه «معنا ندارد.» او میگوید:
«SB 1047 یک لایحه بسیار معقولانه است که از آزمایشگاههای هوش مصنوعی بزرگ میخواهد کاری را که قبلاً متعهد به انجام آن بودهاند، یعنی آزمایش مدلهای بزرگ خود برای خطرات امنیتی فاجعهبار را انجام دهند.»
لایحه SB 1047 هماکنون در انتظار رأی نهایی خود است تا به دفتر فرماندار کالیفرنیا، «گاوین نیوسام» ارسال شود.
پاسخ ها