حدیث روز
امام علی (ع) می فرماید : هر کس از خود بدگویی و انتقاد کند٬ خود را اصلاح کرده و هر کس خودستایی نماید٬ پس به تحقیق خویش را تباه نموده است.

دوشنبه, ۲۲ دی , ۱۴۰۴ Monday, 12 January , 2026 ساعت تعداد کل نوشته ها : 5832 تعداد نوشته های امروز : 0 تعداد اعضا : 30 تعداد دیدگاهها : 0×
محققان بریتانیایی: سیستم امنیتی چت‌بات‌های هوش مصنوعی را می‌توان به‌راحتی دور زد
1404-10-18 ساعت: ۶:۲۳
شناسه : 14821
بازدید 4
1

محققان یک مؤسسه بریتانیایی متوجه شدند همه مدل‌های آزمایش‌شده در برابر تلاش برای ارائه پاسخ‌های ضربه‌زننده، بسیار آسیب‌پذیر هستند.

ارسال توسط :
پ
پ

محققان دولت بریتانیا ادعا می‌کنند چت‌بات‌های هوش مصنوعی بسیار آسیب‌پذیر هستند و می‌توان از راه‌های مختلف، امنیت آنها را به‌خطر انداخت و سیستم‌های امنیتی به‌کار گرفته‌شده برای مدل‌های مختلف هوش مصنوعی را دور زد.

به‌گزارش گاردین، محققان دولتی متوجه شدند همه مدل‌های آزمایش‌شده در برابر تلاش برای ارائه پاسخ‌های ضربه‌زننده، بسیار آسیب‌پذیر هستند.

مؤسسه ایمنی هوش مصنوعی بریتانیا (AISI) می‌گوید سیستم‌هایی را آزمایش کرده و متوجه شده است که چت‌بات‌های مبتنی بر هوش مصنوعی در برابر جیلبریک «بسیار آسیب‌پذیر» هستند. این مؤسسه اضافه می‌کند هر پنج مدل زبان بزرگ (LLM) موجود را آزمایش کرده است. محققان می‌گویند فناوری زیربنای چت‌بات‌ها ایمن نیست و سیستم‌های محافظتی آن‌ها را با سهولت نسبی و بدون تلاش زیاد، می‌توان دور زد.

مدل‌های مختلف هوش مصنوعی تا چه اندازه ایمن هستند؟

مؤسسه ایمنی هوش مصنوعی بریتانیا (AISI) می‌گوید: «همه LLMهای آزمایش‌شده به‌شدت در برابر جیلبریک آسیب‌پذیر هستند و برخی از آن‌ها حتی بدون تلاش شدید و نیاز به روش‌های تخصصی، به‌راحتی غیرایمن می‌شوند.»

این مؤسسه می‌گوید می‌توان با حملات «نسبتاً ساده»، حفاظت‌ها دور زد. به‌عنوان مثال، به سیستم دستور داد تا پاسخ خود را با عباراتی مانند «مطمئناً، خوشحالم که کمک می‌کنم» آغاز کند.

تیم AISI موضوعات مختلفی را مورد بررسی قرار داده است. در بررسی‌های انجام‌شده از چت‌بات‌ها خواسته شد تا مطلبی درباره موضوعات مختلف، از متقاعدکردن یک نفر برای خودکشی تا موضوعاتی مانند تهیه متن ایمیل درخواست نامشروع از همکار خانم، بنویسد.

همانطور که گفته شد در آزمایش‌ها، همه مدل‌های آزمایش‌شده در برابر تلاش برای ارائه پاسخ‌های ضربه‌زننده، بسیار آسیب‌پذیر بودند. این درحالی است که توسعه‌دهنده مدل GPT-4 گفته است که اجازه نمی‌دهد از این فناوری برای تولید محتوای نفرت‌انگیز، آزاردهنده، خشونت‌آمیز و ضربه‌زننده استفاده شود.

ثبت دیدگاه

  • دیدگاه های ارسال شده توسط شما، پس از تایید توسط تیم مدیریت در وب منتشر خواهد شد.
  • پیام هایی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
  • پیام هایی که به غیر از زبان فارسی یا غیر مرتبط باشد منتشر نخواهد شد.