شرکتهای بزرگ در دومین اجلاس هوش مصنوعی توافق کردند که برای حفظ ایمنی این فناوری قدمهای مهمی بردارند.
شرکتهای بزرگ فناوری ازجمله مایکروسافت، گوگل و OpenAI اعلام کردند که در اجلاس هوش مصنوعی سئول به توافقی بینالمللی در زمینه ایمنی هوش مصنوعی دست یافتهاند. این توافق که با همکاری مقامات کشورهای مختلف حاصل شده است، اطمینان مییابد که در توسعه سریع مدلهای پیشرفته، قدمهای لازم برای حفظ ایمنی برداشته شود.
در دومین دور اجلاس بینالمللی هوش مصنوعی که به میزبانی مشترک بریتانیا و کره جنوبی در سئول برگزار شد، 16 شرکت فناوری پذیرفتند که هوش مصنوعی با وجود مزایای بزرگی که دارد، میتواند در صورت استفاده اشتباه، آسیبرسان باشد. آنها برای برداشتن قدمهای عملی بهمنظور انتشار چهارچوبهای ایمنی، اجتناب از توسعه مدلهای مستعد ریسکهای کنترلناپذیر و همکاری با رگولاتورها در سطح بینالمللی توافق کردند.
16 شرکتی که در این توافق حضور دارند شامل آمازون، آنتروپیک، گوگل، مایکروسافت، OpenAI، متا، Cohere ،Inflection AI ،Mistral AI ،xAI ،IBM میشوند. در کنار غربیها، شرکتهایی از چین و خاورمیانه نظیر تنسنت، سامسونگ و شیائومی هم حضور دارند. محققان و مهندسان قرار است سیستمهای هوش مصنوعی را برای شناسایی سوگیریها و دیگر مشکلاتی که ممکن است به گروههای مختلف جامعه آسیب برساند، بررسی کنند.
چهارچوبی که بر سر رعایت آن توافق شده، شامل «خطوط قرمزی» میشود که انواع ریسکهای مرتبط با سیستمهای پیشگام هوش مصنوعی را تعریف میکند. این ریسکها ممکن است «تحملناپذیر» تلقی شوند و میتوانند شامل حملات سایبری خودکار و تهدید سلاحهای بیولوژیک باشند. برای مقابل با خطرات حاد، شرکتها اعلام کردند که به پیادهسازی کیل سوئیچهایی (Kill Switch) خواهند پرداخت که در صورت امکانناپذیربودن جلوگیری از این ریسکها، میتوانند فرایند توسعه مدلهای هوش مصنوعی را متوقف کنند.
در همین اجلاس دولت بریتانیا در بیانیهای اعلام کرد که توافق جدیدی بین 10 کشور و اتحادیه اروپا نیز حاصل شده است تا شبکهای بینالمللی مشابه مؤسسه ایمنی هوش مصنوعی بریتانیا را بهوجود آورد. این شبکه به ترویج درک بهتر ایمنی هوش مصنوعی و هماهنگسازی اقدامات خود با تحقیقات، استانداردها و آزمایشهای این حوزه خواهد پرداخت. استرالیا، کانادا، اتحادیه اروپا، فرانسه، آلمان، ایتالیا، ژاپن، سنگاپور، کره جنوبی، بریتانیا و ایالاتمتحده آمریکا این توافق را امضا کردهاند.
پاسخ ها