چهارشنبه, ۶ اسفند , ۱۴۰۴ Wednesday, 25 February , 2026 ساعت تعداد نوشته های امروز : 9×

تیتر اخبار آکادمی

برنامه‌های جدید وزارت علوم برای تقویت سلامت روان جامعه دانشگاهی چگونه مواد روان‌گردان، خاطره را به توهم تبدیل می‌کند؟! مسیر شکوفایی استعداد با توجه به نظام تحولی پیاژه آغاز نام‌نویسی آزمون‌های ورودی سمپاد از 13 اسفند دانشگاه فرهنگیان تا 3 سال آینده مرجع ملی تربیت معلم می‌شود نگاهی به مفهوم و ابزارهای خود افشایی هیجانی دریافت گواهینامه صلاحیت حرفه‌ای برای همه معلمان اجباری شد ماهواره «خیام» کاهش پوشش جنگلی اطراف دریاچه سوها را ثبت کرد ابعاد مختلف روان‌شناسی رقابت رکوردشکنی حضور دانش‌آموزان در اعتکاف؛ مشارکت از 800 هزار نفر گذشت حل مسئله در خواب ممکن شد گزارش تلخ نوجوانان از پشت‌پرده تجربه در اینستاگرام بزرگسالان هم باید مثل کودکان بازی کنند! تأکید وزیر آموزش‌وپرورش بر اولویت‌ها و تقویت آموزش قرآن تکذیب شایعه تعطیلی مدارس منطقه 11 تهران پدیده «ماه خونین» در راه است؛ چگونه ماه‌گرفتگی کامل 3 مارس را رصد کنیم رشد هنرستان‌ها و افزایش گرایش به رشته‌های مهارتی جزئیات جدید از 3 ماهواره در حال ساخت ایران بزرگسالان هم باید بازی کنند نتایج نهایی پذیرش بدون آزمون نوبت بهمن ۱۴۰۴ دانشگاه‌ها اعلام شد واکنش وزیر آموزش‌و‌پرروش به فیلم پخش شده توسط یکی از معلمان پیش‌ثبت‌نام مدارس غیردولتی با 3 شرط و سقف 20 درصد شهریه تعویق دوباره پرتاب آرتمیس 2؛ سفر انسان به ماه به فروردین موکول شد پرتاب 28 استارلینک جدید؛ ماهواره‌های اسپیس‌ایکس به‌ مرز 10 هزار رسید PTSD چیست؟ وقتی گذشته هنوز تمام نشده است/ اینفوگرافیک پنجمین جشنواره کشوری هنری سمپاد برگزار می‌شود ارتقای کیفیت آموزشی در مناطق آزاد با ساخت مدارس جدید شهادت 22 دانش‌آموز و 5 معلم در حوادث دی‌ماه برگزاری اردو آموزشی آمادگی کنکوری بیش از ۱۰۰ دانش آموز هرمزگانی بازگشت 39 هزار بازمانده از تحصیل به مدرسه تأکید وزیر آموزش‌وپرورش بر ارتقای شفافیت در صندوق ذخیره فرهنگیان واریز 7 هزار میلیارد ریال سود به حساب بازنشستگان صندوق ذخیره فرهنگیان حمله پانیک چیست؟ هشدار پلیس فتا درباره ترفند جدید کلاهبرداری در “شاد” استرس چگونه بر عملکرد و سلامت کلیه‌های انسان تأثیر می‌گذارد؟ تعطیلات زمستانه مدارس به زودی تصویب می شود امام جمعه بهاباد: قدرت واقعی ملت‌ها در علم و شناخت نهفته است دانش‌آموزان با تکیه بر علم و ایمان، آینده روشن کشور را رقم می‌زنند ۵۰ برگزیده کنکور سراسری سال ۱۴۰۴ در شهرستان بهاباد تجلیل شدند گروه همسالان؛ سکوی خودشناسی یا تهدیدی برای مبارزه با والدین؟ به خاطر سلامت مغزتان هم که شده یادگیری را متوقف نکنید! اجرای 4 برنامه ویژه قرآنی برای معلمان و دانش‌آموزان در ماه رمضان آموزش هوش مصنوعی به 1 میلیون دانش‌آموز در مدارس غیردولتی انتخاب 32 اثر برگزیده در جشنواره ملی کتاب رشد با مشارکت 300 ناشر رونمایی از نشان افتخار نویسندگان رشد در جشنواره کتاب رشد چالش کتاب کودک و نوجوان از نگاه دبیر شورای عالی انقلاب فرهنگی نقشه جامع ترویج کتابخوانی در مدارس تدوین شود توزیع 60 هزار میلیارد سود بین اعضای موسسه صندوق ذخیره فرهنگیان کاظمی: مصرف کتاب در مدارس حلقه کلیدی زنجیره کتاب‌خوانی است جزییات پرداخت اوراق بازنشستگان آموزش و پرورش

تحقیق BBC نشان داد: چت‌بات‌های هوش مصنوعی اخبار را تحریف می‌کنند
1404-10-18
شناسه : 12153
بازدید 29
2

میان چت‌بات‌های بررسی‌شده، جمینای گوگل بیشترین خروجی‌های غیردقیق را تولید کرده است.

ارسال توسط :
پ
پ

پژوهش جدید بی‌بی‌سی نشان می‌دهد اکثر چت‌بات‌های هوش مصنوعی مانند ChatGPT، جمینای و کوپایلت اخبار رسانه‌ها را تحریف می‌کنند.

یکی از قابلیت‌های چت‌بات‎‌های هوش مصنوعی خلاصه‌سازی اخبار برای کاربران است اما مدتی است این قابلیت تبدیل به دردسری بزرگ شرکت‌ها و بنگاه‌های خبری شده است. برای آزمایش میزان درستی کارکرد این چت‌بات‌ها در خلاصه‌سازی اخبار، بی‌بی‌سی چت‌بات‌های ChatGPT، جمینای، کوپایلت و Perplexity را بررسی کرده و دریافته بیش از نیمی از خروجی‌های این سرویس‌ها مشکلات قابل‌توجهی دارند.

هذیان یکی از مشکلات عمده چت‌بات‌های هوش مصنوعی است

چت‌بات‌های هوش مصنوعی

کارشناسان بی‌بی‌سی از این چت‌بات‌ها خواستند خلاصه‌ای از ۱۰۰ خبر این رسانه ارائه کنند و این خروجی‌ها را بررسی کردند. درنهایت مشخص شد بیش از ۵۱ درصد پاسخ‌های این چت‌بات‌ها مشکلات عمده‌ای دارند و ۱۹ درصد پاسخ‌ها نیز حاوی گفته‌ها، تاریخ‌ها و روزهای غیردقیق هستند. همچنین ۱۳ درصد نقل‌قول‌های بی‌بی‌سی یا نسبت به منبع اصلی تغییر کرده‌اند یا اصلاً در مقاله منبع ذکر نشده‌اند.

به گفته بی‌بی‌سی، میان چت‌بات‌های بررسی شده، پاسخ‌های جمینای گوگل بیشترین اشتباهات را داشته و ۴۶ درصد پاسخ‌های این چت‌بات ایرادات قابل‌توجهی در دقت خبر داشته‌اند. هیچ‌کدام از شرکت‌هایی که بی‌بی‌سی چت‌بات‌های آنها را بررسی کرده، هنوز واکنشی به این گزارش نشان نداده‌اند.

این اولین بار نیست که بی‌بی‌سی به مسئله تحریف اخبارش توسط چت‌بات‌های هوش مصنوعی اشاره می‌کند. هوش مصنوعی اپل اینتلیجنس تاکنون حداقل ۲ بار تیتر و محتوای خبرهای بی‌بی‌سی را تحریف کرده که واکنش این رسانه را در پی داشته است.

اپل اینتلیجنس ابتدا به‌اشتباه به کاربران گفته بود مظنون به قتل مدیرعامل یونایتد هلتکر در زندان خودکشی کرده و در خبر دوم نیز به‌اشتباه گفته بود «لوک لیتلر»، بازیکن دارت، برنده جایزه مسابقات جهانی PDC شده، درحالی‌که این بازیکن فقط مسابقه نیمه‌نهایی را برنده شده بود. در واکنش به این مشکلات، اپل اعلام کرده بود تغییراتی را در قابلیت خلاصه‌سازی اخبار هوش مصنوعی خود ایجاد می‌کند.

ثبت دیدگاه علمی و آموزشی

  • دیدگاه‌های ارسال شده توسط شما، پس از تایید توسط تیم مدیریت در وب منتشر خواهد شد.
  • پیام‌هایی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
  • پیام‌هایی که به غیر از زبان فارسی یا غیرمرتبط باشد منتشر نخواهد شد.