یکشنبه, ۲۳ فروردین , ۱۴۰۵ Sunday, 12 April , 2026 ساعت تعداد نوشته های امروز : 4×

تیتر اخبار آکادمی

جدول پخش مدرسه تلویزیونی دانش‌آموزان تا 27 فروردین سرانه دانش‌آموزی تا سال 1405 به بیش از 16 هزار میلیارد تومان می‌رسد اهدای بسته فرهنگی کانون پرورش فکری به کودکان آسیب‌دیده از جنگ بازدید وزیر آموزش‌وپرورش از ساختمان آسیب‌دیده شهید باهنر ابلاغ جداول درسی فنی‌وحرفه‌ای و کاردانش برای سال تحصیلی 1406-1405 دانش فضایی ایران پابرجاست/ ضرورت رعایت پدافند در احداث مکان‌های جدید دانش فضایی ایران پابرجاست/ ضرورت رعایت پدافند در احداث مکان‌های جدید برنامه درسی مدرسه تلویزیونی ایران برای شنبه 23 فروردین 1405 ملت ایران پرچمدار دفاع از حق و حقیقت در جهان است کاهش سرفاصله حرکت قطارهای مترو تهران از 22فروردین اجرای پویش فرهنگی به یاد دانش آموزان شهید میناب در تایلند مدارس تهران تا پایان فروردین غیرحضوری شد/فعالیت 50درصدی کارکنان ادارات چالش شهریه مدارس غیرانتفاعی در سال نیمه تعطیل/آموزش آنلاین،شهریه کامل؟ اعلام نحوه برگزاری ارزشیابی پایان سال تحصیلی 1405-1404 برنامه درسی مدرسه‌ تلویزیونی‌ ایران برای چهارشنبه تبیین فرهنگ ایثار و شهادت برای نسل دانش‌آموز ضروری است افزایش نیاز به خدمات روانی برای دانش‌آموزان مناطق آسیب‌دیده زمان ثبت‌نام آزمون سراسری 1405 اعلام شد اجرای طرح ملی آموزش هوش مصنوعی برای دانش‌آموزان و معلمان ٣١٢ دانش آموز و معلم تا روز سی‌ونهم جنگ شهید شدند گزارش سمپاد از فعالیت‌های دانش‌آموزان در ایام «جنگ رمضان» سرود صبحگاهی مدارس با شعری از رهبر شهید انقلاب اجرا می‌شود مستندسازی جنایت علیه دانش‌آموزان برای پیگیری حقوقی جهانی سوگواره 5 هزار دانش‌آموز در حرم رضوی به یاد شهدای میناب برنامه آموزش‌وپرورش در صورت لغو کنکور و امتحانات نهایی تمرکز آموزش‌وپرورش بر ارتقای تاب‌آوری و نشاط دانش‌آموزان بازنمایی حادثه مدرسه شجره طیبه میناب در کتاب‌های درسی شهادت 245 دانش آموز تا روز 37 جنگ/ تخریب 51 مدرسه الزام مدارس غیردولتی به اجرای کامل تعهدات آموزشی پخش برنامه‌های مدرسه تلویزیونی ایران در 16 فروردین از شبکه آموزش اعلام 14 سیاست راهبردی سازمان نوسازی مدارس برای سال 1405 راهنمای جامع 15 گانه برای برگزاری کلاس‌های غیرحضوری موفق تداوم طرح همیار سمپاد در ایام مقاومت ملی با محور عدالت آموزشی ادامه آموزش غیرحضوری با مدرسه تلویزیونی و درسنامه‌ها مدرسه‌ای که باید به یادمان تبدیل شود؛ چرا میناب نباید فراموش شود؟ اعلام برنامه درسی مدرسه تلویزیونی ایران در 15 فروردین بزرگداشت چهلم شهدای دانش‌آموز میناب در مدارس سراسر کشور مشکلى در شبکه شاد وجود ندارد زمان‌بندی جدید حضور دانش‌آموزان در برنامه شاد اعلام شد چگونه انهدام میدان گازی قطر، قلب صنعت فضایی جهان را از تپش انداخت؟ ستاد حقوق بشر خواستار پیگیری بین‌المللی فاجعه مدرسه میناب شد بیانیه سازمان سنجش در محکومیت حمله به دانشگاه‌ها و مراکز علمی امتحانات هماهنگ کشوری لغو شد/ برنامه ریزی هر استان به صورت مستقل شهادت 138 دانش‌آموز مدارس غیردولتی/ آسیب به 146مدرسه مدارس تا پایان فروردین مجازی شد عتبه مقدسه حسینیه(ع) به پویش فرشته های میناب پیوست اسکان نوروزى فرهنگیان تا زمان بازگشایى مدارس ادامه دارد ارائه سناریوهای جایگزین برای برگزاری امتحانات حضوری مدارس اعلام اولویت‌های آموزش و پرورش در شرایط جنگی عیادت معاون وزیر از دانش آموزان مجروح مدرسه میناب

مدل‌های هوش مصنوعی پیشرفته بیشتر دچار توهم می‌شوند؛ آیا می‌توان جلوی آن را گرفت؟
1404-10-11
شناسه : 8189
بازدید 77
13

در مقاله‌ای جدید، ۲ کارشناس حوزه هوش مصنوعی درباره مشکل توهم مدل‌ها و راه‌های کاهش آن صحبت کرده‌اند.

ارسال توسط :
پ
پ

تحقیقات جدید نشان می‌دهد هرچه مدل‌های هوش مصنوعی پیشرفته‌تر می‌شوند، بیشتر دچار «توهم» شده و اطلاعات نادرست می‌دهند. آیا این مشکل حل‌شدنی است یا باید آن را ویژگی طبیعی هوش مصنوعی بدانیم؟

نتایج جدیدترین تحقیق شرکت OpenAI نشان می‌دهد 2 مدل پیشرفته o3 و o4-mini که برای استدلال و پاسخ‌دهی دقیق توسعه یافته‌اند، نسبت به مدل‌های قدیمی‌تر بیشتر دچار توهم می‌شوند. طبق بررسی‌های OpenAI با استفاده از بنچمارک PersonQA، مدل o3 در 33 درصد مواقع و مدل o4-mini در 48 درصد مواقع اطلاعات نادرست داده‌اند؛ آماری که بیش از 2 برابر نرخ توهم مدل قدیمی‌تر o1 است.

یافته‌های OpenAI نگرانی‌های جدیدی درباره صحت و اعتماد به مدل‌های زبانی بزرگ (LLM) مثل چت‌بات‌های هوش مصنوعی ایجاد کرده است. «النور واتسون»، مهندس اخلاق هوش مصنوعی و عضو مؤسسه IEEE، به نشریه لایو‌ساینس می‌گوید:

«وقتی سیستمی با همان دقت و روانی که اطلاعات درست می‌دهد، اطلاعات ساختگی، مانند منابع، وقایع یا واقعیت‌های جعلی، می‌سازد، نامحسوس اما خطرناک کاربران را گمراه می‌کند.»

او تأکید کرده مشکل توهم هوش مصنوعی در مدل‌های زبانی لزوم نظارت دقیق بر خروجی آنها را بیشتر می‌کند، مخصوصاً زمانی که این خروجی‌ها در تصمیم‌گیری‌های مهم نقش دارند.

توهم‌زایی در مدل هوش مصنوعی
مدل‌های هوش مصنوعی پیشرفته بیشتر دچار توهم می‌شوند؛ آیا می‌توان جلوی آن را گرفت؟

مدل‌های استدلالگر (Reasoning Models) به‌جای اتکا به احتمالات آماری، درست مانند ذهن انسان، سعی می‌کنند مسائل پیچیده را به اجزای ساده‌تر تقسیم کنند و راه‌حل‌های خلاقانه‌ای برای آنها بیابند.

به گفته کارشناسان، همین فرایند استدلال نیز نیازمند «توهم» است؛ تولید محتواهایی که لزوماً در داده‌های ورودی وجود ندارند.

«سهراب کازرونیان»، پژوهشگر هوش مصنوعی شرکت Vectra AI، به Live Science می‌گوید:

«باید به این نکته توجه کرد که توهم یکی از ویژگی‌های هوش مصنوعی است نه باگ. اگر بخواهم از یکی از همکارانم نقل‌قول کنم: هر خروجی که مدل زبانی تولید می‌کند، نوعی توهم است؛ فقط برخی از آنها حقیقت دارند.»

او در ادامه می‌گوید اگر هوش مصنوعی صرفاً اطلاعات داده‌های آموزشی خود را بازتولید می‌کرد، عملاً فقط موتور جستجوست و نمی‌توانست کدی بنویسد که پیشتر وجود نداشته یا شعری بگوید که مفهومی کاملاً نو داشته باشد.

به‌عبارت‌دیگر، او ادعا کرده توهم همان عنصر خلاقیت در هوش مصنوعی است؛ مشابه رؤیا در انسان که امکان تخیل و نوآوری را فراهم می‌کند.

هرچند توهم می‌تواند به خلق ایده‌های جدید کمک کند، در مواردی که دقت اطلاعات بسیار مهم است (مثلاً در حوزه‌های پزشکی، حقوق یا امور مالی)، می‌تواند بسیار خطرناک باشد. واتسون می‌گوید:

«توهم در این حوزه‌ها می‌تواند به تصمیم‌های اشتباه و حتی آسیب‌های واقعی منجر شود.»

مشکل توهم در مدل‌های پیشرفته‌تر

او در ادامه گفته است:

«در مدل‌های پیشرفته‌تر اشتباهات کمتر می‌شود اما مشکل توهم همچنان در شکل‌های فوق‌العاده ظریفی وجود دارد. به‌مرور، این اختلال در واقعیت‌سازی اعتماد کاربر به سیستم‌های هوش مصنوعی، در جایگاه ابزارهای قابل‌اتکا را کاهش می‌دهد و زمانی که محتوای تأییدنشده مبنای تصمیم‌گیری باشد، می‌تواند منجر به آسیب‌های واقعی شود.»

او همچنین هشدار داد با پیشرفت مدل‌ها، مسئله تشخیص خطا نیز دشوارتر می‌شود:

«با ارتقای توانایی مدل‌ها، خطاها دیگر آشکار و ساده نیستند، بلکه مخفی‌تر و غیرقابل‌تشخیص‌تر می‌شوند. محتوای ساختگی در دل روایت‌های منطقی و زنجیره‌های استدلالی باورپذیر جای می‌گیرد. این روند خطرآفرین است؛ کاربران ممکن است متوجه خطا نشوند و خروجی مدل را نهایی و دقیق بدانند.»

کازرونیان نیز این دیدگاه را تأیید کرده و می‌گوید:

«به‌رغم این باور عمومی که مشکل توهم هوش مصنوعی به‌مرور کاهش می‌یابد، به‌ نظر می‌رسد نسل جدید مدل‌های استدلالی پیشرفته حتی بیشتر از مدل‌های ساده‌تر دچار توهم می‌شوند و هنوز توضیح مشخص و پذیرفته‌شده‌ای برای این مشکل وجود ندارد.»

نکته قابل‌توجه دیگر اینکه هنوز مشخص نیست مدل‌های زبانی بزرگ (LLMs) دقیقاً چگونه به پاسخ‌ می‌رسند؛ موضوعی که شباهت زیادی به درک ناقص ما از مغز انسان دارد.

«داریو آمودی»، مدیرعامل شرکت Anthropic، آوریل 2025 درمقاله‌ای نوشته بود:

«وقتی سیستم هوش مصنوعی مولد کاری انجام می‌دهد (مثلاً سند مالی را خلاصه می‌کند) در سطح خاص و دقیق هیچ ایده‌ای نداریم چرا این موارد را انتخاب کرده یا چرا گاهی باوجود دقت معمول، اشتباه می‌کند. چرا این واژه را انتخاب کرده و از واژه دیگری استفاده نکرده است؟ چرا در برخی موارد اطلاعات نادرست می‌دهد؟»

مشکل توهم در هوش مصنوعی
مدل‌های هوش مصنوعی پیشرفته بیشتر دچار توهم می‌شوند؛ آیا می‌توان جلوی آن را گرفت؟

به گفته کازرونیان، پیامدهای تولید اطلاعات نادرست به‌واسطه توهم هوش مصنوعی بسیار جدی هستند:

«هیچ راه فراگیر و قابل‌تأییدی وجود ندارد که بتوان با اطمینان مطلق از مدل زبانی بزرگ خواست پاسخ درست به سؤالات مجموعه‌ای از داده‌ها بدهد.»

این ۲ کارشناس (کازرونیان و واتسون) در گفتگو با Live Science تأکید کرده‌اند حذف کامل توهم در مدل‌های هوش مصنوعی ممکن است بسیار سخت باشد اما راه‌های ساده‌تری برای کاهش آن وجود دارد.

راه‌هایی برای کاهش توهم هوش مصنوعی

واتسون پیشنهاد کرده استفاده از تکنیک Retrieval-Augmented Generation می‌تواند مفید باشد؛ روشی که خروجی مدل را به منابع اطلاعاتی خارجی و قابل‌تأیید متصل می‌کند و به این طریق جلوی گمراهی را می‌گیرد. او درباره راه‌حل دیگری می‌گوید:

«رویکرد دیگر ایجاد ساختار در فرایند استدلال مدل است. با وادارکردن مدل به بازبینی پاسخ‌ها، مقایسه دیدگاه‌های مختلف یا پیروی از مراحل منطقی می‌توان از خیال‌پردازی مهارنشده جلوگیری کرد و ثبات پاسخ‌ها را افزایش داد. این رویکرد می‌تواند با آموزش مدل برای اهمیت‌دادن به دقت و استفاده از ارزیابی تقویتی انسانی یا ماشینی بهبود پیدا کند.»

واتسون همچنین معتقد است مدل‌ها باید طوری طراحی شوند که بتوانند تردید خود را تشخیص دهند:

«درنهایت، مدل‌ها به‌جای اینکه همیشه با اطمینان پاسخ دهند، باید به‌گونه‌ای طراحی شوند که بتوانند زمانی که از پاسخ مطمئن نیستند، به کاربران اطلاع‌ بدهند یا در مواقع لازم تصمیم‌ را به کاربر بسپارند. هرچند این استراتژی‌ها خطر اختلال در خلق واقعیت را کامل از بین نمی‌برند، مسیر عملیاتی مؤثری برای قابل‌اعتمادتر شدن خروجی‌های هوش مصنوعی فراهم می‌کنند.»

درنهایت، کازرونیان در مقام جمع‌بندی می‌گوید، باتوجه‌به اینکه جلوگیری از توهم بسیار دشوار است، در مدل‌های پیشرفته، باید اطلاعات ساخته هوش مصنوعی را «با همان میزان از تردیدی که به انسان‌ها داریم، بررسی کنیم.»

ثبت دیدگاه علمی و آموزشی

  • دیدگاه‌های ارسال شده توسط شما، پس از تایید توسط تیم مدیریت در وب منتشر خواهد شد.
  • پیام‌هایی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
  • پیام‌هایی که به غیر از زبان فارسی یا غیرمرتبط باشد منتشر نخواهد شد.