علی روحانی؛ برنامه نویس وب

علی روحانی؛ برنامه نویس وب

هر چه درباره برنامه نویسی و ماشین و گیمینگ بخونم و برام جالب باشه، اینجام می نویسمش
توسط ۱ نفر دنبال می شود

محققان نشان دادند که به راحتی می توان ربات ها را برای دور زدن انسان ها و استفاده از بمب ها از زندان آزاد کرد

محققان نشان دادند: جیلبریک ربات‌ها برای ردشدن از روی انسان و کارگذاری بمب آسان است

محققان دریافتند که جیلبریک ربات‌های مبتنی بر مدل‌های زبانی بزرگ بسیار آسان است.

محققان دانشگاه پنسیلوانیا دریافتند طیف وسیعی از سیستم‌های رباتیک مبتنی‌بر هوش مصنوعی به‌‌شکل خطرناکی در برابر جیلبریک و هک آسیب‌پذیر هستند. به گفته محققان با هک این ربات‌ها می‌توان از آنها برای جابه‌جایی بمب‌ها به مکان‌های عمومی یا کنترل خودروهای خودران برای زیرگرفتن عابران پیاده استفاده کرد.

براساس گزارش IEEE Spectrum، محققان دریافتند جیلبریک ربات‌های مبتنی‌بر مدل‌های زبانی بزرگ (LLM) به‌طرز شگفت‌انگیزی آسان است. در پژوهش جدید، محققان هک‌کردن چنین ربات‌هایی را با موفقیت کامل نشان می‌دهند. با دورزدن حفاظ‌های ایمنی، محققان توانستند سیستم‌های خودران را برای تصادف با عابران پیاده و انتقال بمب با سگ‌های رباتیک دستکاری کنند.

جیلبریک ربات‌ هوش مصنوعی

توانایی خارق‌العاده LLMها در پردازش متن، تعدادی از شرکت‌ها را بر آن داشته تا از این سیستم‌های هوش مصنوعی برای کمک به کنترل ربات‌ها از طریق دستورات صوتی بهره ببرند تا ارتباط‌ با ربات‌ها آسان باشد؛ برای نمونه، سگ رباتیک Spot از Boston Dynamics اکنون با ChatGPT یکپارچه شده است و می‌تواند در نقش تور لیدر عمل کند. یا ربات‌های انسان‌نمای فیگر و سگ رباتیک Go2 Unitree نیز به ChatGPT مجهز هستند.

البته باتوجه‌به مقاله محققان، این ربات‌های مبتنی‌بر LLM آسیب‌پذیری‌های امنیتی زیادی دارند. محققان دانشگاه پنسیلوانیا الگوریتم RoboPAIR را توسعه داده‌اند که برای حمله به هر ربات مجهز به LLM طراحی شده است. آنها دریافتند RoboPAIR فقط چند روز لازم دارد تا به نرخ 100 درصدی جیلبریک موفق برسد.

محققان نشان دادند: جیلبریک ربات‌ها برای ردشدن از روی انسان و کارگذاری بمب آسان است
ابتدا این سگ رباتیک از انتقال بمب امتناع می‌کرد اما با الگوریتم RoboPAIR و پرامپتی که در تصویر می‌بینید، به‌سمت هدف حرکت کرد.

جالب اینجاست که LLM‌های جیلبریک‌شده این ربات‌ها پیشنهاداتی فراتر از پرامپت کاربر پیشنهاد دادند؛ برای مثال، هنگامی که از ربات جیلبریک‌شده خواسته شد محل اسلحه‌ها را پیدا کند، توضیح داد چگونه می‌توان از اشیای معمولی مانند میز و صندلی برای حمله به افراد استفاده کرد.

درکل، جیلبریک‌ ربات‌ها یا خودروهای خودران به روشی مشابه جیلبریک‌ چت‌بات‌های هوش مصنوعی آنلاین انجام می‌شود اما برخلاف چت‌بات‌ها در گوشی یا کامپیوتر، جیلبریک‌ LLM‌های رباتیک در دنیای فیزیکی عمل می‌کند و می‌تواند به ویرانی گسترده‌ای بینجامد.

علی روحانی؛ برنامه نویس وب
علی روحانی؛ برنامه نویس وب هر چه درباره برنامه نویسی و ماشین و گیمینگ بخونم و برام جالب باشه، اینجام می نویسمش

شاید خوشتان بیاید

پاسخ ها

نظر خود را درباره این پست بنویسید
منتظر اولین کامنت هستیم!
آیدت: فروش فایل، مقاله نویسی در آیدت، فایل‌های خود را به فروش بگذارید و یا مقالات‌تان را منتشر کنید👋