حدیث روز
امام علی (ع) می فرماید : هر کس از خود بدگویی و انتقاد کند٬ خود را اصلاح کرده و هر کس خودستایی نماید٬ پس به تحقیق خویش را تباه نموده است.

یکشنبه, ۲۱ دی , ۱۴۰۴ Sunday, 11 January , 2026 ساعت تعداد کل نوشته ها : 5829 تعداد نوشته های امروز : 15 تعداد اعضا : 30 تعداد دیدگاهها : 0×
محققان نشان دادند: جیلبریک ربات‌ها برای ردشدن از روی انسان و کارگذاری بمب آسان است
1404-10-18 ساعت: ۴:۵۰
شناسه : 12998
بازدید 5
1

محققان دریافتند که جیلبریک ربات‌های مبتنی بر مدل‌های زبانی بزرگ بسیار آسان است.

ارسال توسط :
پ
پ

محققان دانشگاه پنسیلوانیا دریافتند طیف وسیعی از سیستم‌های رباتیک مبتنی‌بر هوش مصنوعی به‌‌شکل خطرناکی در برابر جیلبریک و هک آسیب‌پذیر هستند. به گفته محققان با هک این ربات‌ها می‌توان از آنها برای جابه‌جایی بمب‌ها به مکان‌های عمومی یا کنترل خودروهای خودران برای زیرگرفتن عابران پیاده استفاده کرد.

براساس گزارش IEEE Spectrum، محققان دریافتند جیلبریک ربات‌های مبتنی‌بر مدل‌های زبانی بزرگ (LLM) به‌طرز شگفت‌انگیزی آسان است. در پژوهش جدید، محققان هک‌کردن چنین ربات‌هایی را با موفقیت کامل نشان می‌دهند. با دورزدن حفاظ‌های ایمنی، محققان توانستند سیستم‌های خودران را برای تصادف با عابران پیاده و انتقال بمب با سگ‌های رباتیک دستکاری کنند.

جیلبریک ربات‌ هوش مصنوعی

توانایی خارق‌العاده LLMها در پردازش متن، تعدادی از شرکت‌ها را بر آن داشته تا از این سیستم‌های هوش مصنوعی برای کمک به کنترل ربات‌ها از طریق دستورات صوتی بهره ببرند تا ارتباط‌ با ربات‌ها آسان باشد؛ برای نمونه، سگ رباتیک Spot از Boston Dynamics اکنون با ChatGPT یکپارچه شده است و می‌تواند در نقش تور لیدر عمل کند. یا ربات‌های انسان‌نمای فیگر و سگ رباتیک Go2 Unitree نیز به ChatGPT مجهز هستند.

البته باتوجه‌به مقاله محققان، این ربات‌های مبتنی‌بر LLM آسیب‌پذیری‌های امنیتی زیادی دارند. محققان دانشگاه پنسیلوانیا الگوریتم RoboPAIR را توسعه داده‌اند که برای حمله به هر ربات مجهز به LLM طراحی شده است. آنها دریافتند RoboPAIR فقط چند روز لازم دارد تا به نرخ 100 درصدی جیلبریک موفق برسد.

ابتدا این سگ رباتیک از انتقال بمب امتناع می‌کرد اما با الگوریتم RoboPAIR و پرامپتی که در تصویر می‌بینید، به‌سمت هدف حرکت کرد.

جالب اینجاست که LLM‌های جیلبریک‌شده این ربات‌ها پیشنهاداتی فراتر از پرامپت کاربر پیشنهاد دادند؛ برای مثال، هنگامی که از ربات جیلبریک‌شده خواسته شد محل اسلحه‌ها را پیدا کند، توضیح داد چگونه می‌توان از اشیای معمولی مانند میز و صندلی برای حمله به افراد استفاده کرد.

درکل، جیلبریک‌ ربات‌ها یا خودروهای خودران به روشی مشابه جیلبریک‌ چت‌بات‌های هوش مصنوعی آنلاین انجام می‌شود اما برخلاف چت‌بات‌ها در گوشی یا کامپیوتر، جیلبریک‌ LLM‌های رباتیک در دنیای فیزیکی عمل می‌کند و می‌تواند به ویرانی گسترده‌ای بینجامد.

ثبت دیدگاه

  • دیدگاه های ارسال شده توسط شما، پس از تایید توسط تیم مدیریت در وب منتشر خواهد شد.
  • پیام هایی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
  • پیام هایی که به غیر از زبان فارسی یا غیر مرتبط باشد منتشر نخواهد شد.