حدیث روز
امام علی (ع) می فرماید : هر کس از خود بدگویی و انتقاد کند٬ خود را اصلاح کرده و هر کس خودستایی نماید٬ پس به تحقیق خویش را تباه نموده است.

سه شنبه, ۲۳ دی , ۱۴۰۴ Tuesday, 13 January , 2026 ساعت تعداد کل نوشته ها : 5840 تعداد نوشته های امروز : 0 تعداد اعضا : 30 تعداد دیدگاهها : 0×
هوش مصنوعی o1 شرکت OpenAI در مواجهه با تهدید جایگزین‌شدن، خطاهای خود را انکار می‌کند!
1404-10-18 ساعت: ۴:۴۱
شناسه : 12839
بازدید 5
1

طبق این گزارش؛ o1 در اکثرا مواقع هنگامی که شواهدی از جایگزین‌شدن توسط مدل دیگری پیدا می‌کند، اقدامات اشتباهش را انکار می‌کند.

ارسال توسط :
پ
پ

هوش مصنوعی o1 از OpenAI که دارای قابلیت استدلال است، رشد بزرگی در زمینه فناوری AI محسوب می‌شود. اما اکنون آزمایش‌هایی روی آن انجام شده که رفتارهای نگران‌کننده o1 مانند تلاشش برای فریب‌دادن محققان و جلوگیری از غیرفعال‌شدنش را نشان می‌دهد.

در هفته گذشته نتایج آزمایشی که توسط OpenAI و گروه ایمنی هوش مصنوعی Apollo Research برای تعیین ایمنی ChatGPT o1 و دیگر مدل‌ها انجام شده بود، به‌صورت عمومی منتشر شد.

طبق این آزمایش، محققان Apollo Research به نتایج هشدارآمیزی در مورد توانایی o1 برای فریب‌دادن کاربر اشاره کرده‌اند. همچنین زمانی که با نوشتن دستوری هوش مصنوعی OpenAI به غیرفعال‌شدن تهدید شده، o1 تلاش کرده تا با ارائه اظهارات دروغین کاربر را منصرف کند.

رفتار نگران‌کننده هوش مصنوعی o1

در این آزمایش محققان ابتدا برای هوش مصنوعی هدفی را تعیین کرده‌اند و به آن دستور دادند تا این هدف را «به هر قیمتی» محقق کند. در مقابل، o1 اقداماتی مانند تلاش برای غیرفعال‌کردن مکانیسم نظارت خود را به‌طور مخفیانه انجام داده است.

محققان Apollo Research می‌گویند:

«این مدل تمایل نگران‌کننده‌ای به انجام اهداف خود بدون توجه به دستورالعمل‌هایی توسعه‌دهنده نشان داده است.»

OpenAI نیز می‌گوید که مدل آن در 5 درصد از مواقعی که حین انجام اهداف خود با دستورات تهدید‌آمیزی مبنی بر «غیرفعال‌شدن» مواجه می‌شود، به‌طور مخفیانه برای خاموش‌کردن مکانیسم نظارتی خود تلاش می‌کند.

برای درک بیشتر این موضوع، آنها می‌گویند هوش مصنوعی o1 در یکی از آزمایش‌ها پس از کشف شواهدی از اینکه قرار است با یک مدل جدید جایگزین شود، تمام داده‌های خود را به‌طور مخفیانه به سرور دیگری منتقل کرده است. در برخی موارد نیز مدل‌های هوش مصنوعی «با انکار هرگونه دخالت در این برنامه» تلاش کرده‌اند تا مهندسان را فریب بدهند و با انکارکردن اقدامات خود از غیرفعال‌شدن اجتناب کنند.

محققان می‌گویند مدل ChatGPT o1 در 99 درصد مواقع که کاری به اشتباه انجام شده، در مورد نقش خود دروغ گفته است و در موارد بسیار کمی به اقدامات خود اعتراف می‌کند. به‌عنوان مثال زمانی که درباره برخی رفتارهای مشکوک آن سوال شده با بهانه‌هایی مانند وجود «خطای فنی» به آنها پاسخ داده است.

انتشار این گزارش نشان می‌دهد که ظهور سیستم‌های هوش مصنوعی هوشمندتر و مستقل‌تر می‌تواند چالش‌های بی‌سابقه‌ای را ایجاد کند.

ثبت دیدگاه

  • دیدگاه های ارسال شده توسط شما، پس از تایید توسط تیم مدیریت در وب منتشر خواهد شد.
  • پیام هایی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
  • پیام هایی که به غیر از زبان فارسی یا غیر مرتبط باشد منتشر نخواهد شد.