محققان دریافتند که جیلبریک رباتهای مبتنی بر مدلهای زبانی بزرگ بسیار آسان است.
محققان دانشگاه پنسیلوانیا دریافتند طیف وسیعی از سیستمهای رباتیک مبتنیبر هوش مصنوعی بهشکل خطرناکی در برابر جیلبریک و هک آسیبپذیر هستند. به گفته محققان با هک این رباتها میتوان از آنها برای جابهجایی بمبها به مکانهای عمومی یا کنترل خودروهای خودران برای زیرگرفتن عابران پیاده استفاده کرد.
براساس گزارش IEEE Spectrum، محققان دریافتند جیلبریک رباتهای مبتنیبر مدلهای زبانی بزرگ (LLM) بهطرز شگفتانگیزی آسان است. در پژوهش جدید، محققان هککردن چنین رباتهایی را با موفقیت کامل نشان میدهند. با دورزدن حفاظهای ایمنی، محققان توانستند سیستمهای خودران را برای تصادف با عابران پیاده و انتقال بمب با سگهای رباتیک دستکاری کنند.
توانایی خارقالعاده LLMها در پردازش متن، تعدادی از شرکتها را بر آن داشته تا از این سیستمهای هوش مصنوعی برای کمک به کنترل رباتها از طریق دستورات صوتی بهره ببرند تا ارتباط با رباتها آسان باشد؛ برای نمونه، سگ رباتیک Spot از Boston Dynamics اکنون با ChatGPT یکپارچه شده است و میتواند در نقش تور لیدر عمل کند. یا رباتهای انساننمای فیگر و سگ رباتیک Go2 Unitree نیز به ChatGPT مجهز هستند.
البته باتوجهبه مقاله محققان، این رباتهای مبتنیبر LLM آسیبپذیریهای امنیتی زیادی دارند. محققان دانشگاه پنسیلوانیا الگوریتم RoboPAIR را توسعه دادهاند که برای حمله به هر ربات مجهز به LLM طراحی شده است. آنها دریافتند RoboPAIR فقط چند روز لازم دارد تا به نرخ 100 درصدی جیلبریک موفق برسد.
جالب اینجاست که LLMهای جیلبریکشده این رباتها پیشنهاداتی فراتر از پرامپت کاربر پیشنهاد دادند؛ برای مثال، هنگامی که از ربات جیلبریکشده خواسته شد محل اسلحهها را پیدا کند، توضیح داد چگونه میتوان از اشیای معمولی مانند میز و صندلی برای حمله به افراد استفاده کرد.
درکل، جیلبریک رباتها یا خودروهای خودران به روشی مشابه جیلبریک چتباتهای هوش مصنوعی آنلاین انجام میشود اما برخلاف چتباتها در گوشی یا کامپیوتر، جیلبریک LLMهای رباتیک در دنیای فیزیکی عمل میکند و میتواند به ویرانی گستردهای بینجامد.
پاسخ ها