شنبه, ۲۲ فروردین , ۱۴۰۵ Saturday, 11 April , 2026 ساعت تعداد نوشته های امروز : 17×

تیتر اخبار آکادمی

جدول پخش مدرسه تلویزیونی دانش‌آموزان تا 27 فروردین سرانه دانش‌آموزی تا سال 1405 به بیش از 16 هزار میلیارد تومان می‌رسد اهدای بسته فرهنگی کانون پرورش فکری به کودکان آسیب‌دیده از جنگ بازدید وزیر آموزش‌وپرورش از ساختمان آسیب‌دیده شهید باهنر ابلاغ جداول درسی فنی‌وحرفه‌ای و کاردانش برای سال تحصیلی 1406-1405 دانش فضایی ایران پابرجاست/ ضرورت رعایت پدافند در احداث مکان‌های جدید دانش فضایی ایران پابرجاست/ ضرورت رعایت پدافند در احداث مکان‌های جدید برنامه درسی مدرسه تلویزیونی ایران برای شنبه 23 فروردین 1405 ملت ایران پرچمدار دفاع از حق و حقیقت در جهان است کاهش سرفاصله حرکت قطارهای مترو تهران از 22فروردین اجرای پویش فرهنگی به یاد دانش آموزان شهید میناب در تایلند مدارس تهران تا پایان فروردین غیرحضوری شد/فعالیت 50درصدی کارکنان ادارات چالش شهریه مدارس غیرانتفاعی در سال نیمه تعطیل/آموزش آنلاین،شهریه کامل؟ اعلام نحوه برگزاری ارزشیابی پایان سال تحصیلی 1405-1404 برنامه درسی مدرسه‌ تلویزیونی‌ ایران برای چهارشنبه تبیین فرهنگ ایثار و شهادت برای نسل دانش‌آموز ضروری است افزایش نیاز به خدمات روانی برای دانش‌آموزان مناطق آسیب‌دیده زمان ثبت‌نام آزمون سراسری 1405 اعلام شد اجرای طرح ملی آموزش هوش مصنوعی برای دانش‌آموزان و معلمان ٣١٢ دانش آموز و معلم تا روز سی‌ونهم جنگ شهید شدند گزارش سمپاد از فعالیت‌های دانش‌آموزان در ایام «جنگ رمضان» سرود صبحگاهی مدارس با شعری از رهبر شهید انقلاب اجرا می‌شود مستندسازی جنایت علیه دانش‌آموزان برای پیگیری حقوقی جهانی سوگواره 5 هزار دانش‌آموز در حرم رضوی به یاد شهدای میناب برنامه آموزش‌وپرورش در صورت لغو کنکور و امتحانات نهایی تمرکز آموزش‌وپرورش بر ارتقای تاب‌آوری و نشاط دانش‌آموزان بازنمایی حادثه مدرسه شجره طیبه میناب در کتاب‌های درسی شهادت 245 دانش آموز تا روز 37 جنگ/ تخریب 51 مدرسه الزام مدارس غیردولتی به اجرای کامل تعهدات آموزشی پخش برنامه‌های مدرسه تلویزیونی ایران در 16 فروردین از شبکه آموزش اعلام 14 سیاست راهبردی سازمان نوسازی مدارس برای سال 1405 راهنمای جامع 15 گانه برای برگزاری کلاس‌های غیرحضوری موفق تداوم طرح همیار سمپاد در ایام مقاومت ملی با محور عدالت آموزشی ادامه آموزش غیرحضوری با مدرسه تلویزیونی و درسنامه‌ها مدرسه‌ای که باید به یادمان تبدیل شود؛ چرا میناب نباید فراموش شود؟ اعلام برنامه درسی مدرسه تلویزیونی ایران در 15 فروردین بزرگداشت چهلم شهدای دانش‌آموز میناب در مدارس سراسر کشور مشکلى در شبکه شاد وجود ندارد زمان‌بندی جدید حضور دانش‌آموزان در برنامه شاد اعلام شد چگونه انهدام میدان گازی قطر، قلب صنعت فضایی جهان را از تپش انداخت؟ ستاد حقوق بشر خواستار پیگیری بین‌المللی فاجعه مدرسه میناب شد بیانیه سازمان سنجش در محکومیت حمله به دانشگاه‌ها و مراکز علمی امتحانات هماهنگ کشوری لغو شد/ برنامه ریزی هر استان به صورت مستقل شهادت 138 دانش‌آموز مدارس غیردولتی/ آسیب به 146مدرسه مدارس تا پایان فروردین مجازی شد عتبه مقدسه حسینیه(ع) به پویش فرشته های میناب پیوست اسکان نوروزى فرهنگیان تا زمان بازگشایى مدارس ادامه دارد ارائه سناریوهای جایگزین برای برگزاری امتحانات حضوری مدارس اعلام اولویت‌های آموزش و پرورش در شرایط جنگی عیادت معاون وزیر از دانش آموزان مجروح مدرسه میناب

اشتباه خطرناک هوش مصنوعی پزشکی گوگل: اشاره به عضوی در مغز که وجود خارجی ندارد
1404-09-30
شناسه : 3052
بازدید 128
14

محققان می‌گویند با وجود موفقیت‌های هوش مصنوعی، هنوز خطرات بسیار زیادی درباره استفاده واقعی از این ابزارها وجود دارد.

ارسال توسط :
پ
پ

طبق گزارش‌های جدید، مدل پیشرفته پزشکی گوگل، Med-Gemini، در یک مقاله تحقیقاتی از یک عضو غیرواقعی در مغز انسان نام برده است. علاوه‌براین، آزمایش‌های دیگر نشان داده‌اند که این هوش مصنوعی با تغییر جزئی در نحوه پرسش، پاسخ‌های کاملاً متناقضی ارائه می‌دهد. این اشتباهات فاحش باعث ایجاد نگرانی‌هایی درباره به کارگیری این فناوری‌های نابالغ در محیط‌های بالینی شده است.

در یک مقاله تحقیقاتی که توسط خود گوگل برای نمایش قابلیت‌های مدل هوش مصنوعی Med-Gemini منتشر شده بود، این مدل در تحلیل سی‌تی اسکن سر، یک ناهنجاری را در «گانگلیون بازیلر» (Basilar Ganglia) تشخیص داد؛ بخشی از مغز که اصلاً وجود خارجی ندارد. این هوش مصنوعی، دو ساختار کاملاً مجزا و متفاوت در مغز، یعنی «گانگلیون‌های پایه» (Basal Ganglia) و «شریان بازیلر» (Basilar Artery) را با هم ترکیب و یک نام جدید اختراع کرده بود.

محققان و پزشکان این خطا را «فوق‌العاده خطرناک» توصیف می‌کنند. آنها می‌گویند: «این دو کلمه مختلف، یک دنیا تفاوت ایجاد می‌کنند.» تشخیص اشتباه میان این دو ناحیه می‌تواند به پروتکل‌های درمانی کاملاً متفاوت و بالقوه مرگبار برای بیمار منجر شود.

عضو خیالی مغز که توسط هوش مصنوعی گوگل ایجاد شد

به گزارش ورج، پس از آنکه دکتر «برایان مور» (Bryan Moore)، عصب‌شناس، این اشتباه فاحش را به گوگل گزارش داد، این شرکت در ابتدا تلاش کرد تا با ویرایش پنهانی پست وبلاگ خود و تغییر «Basilar» به «Basal»، موضوع را یک «غلط تایپی» ساده جلوه دهد. اما پس از فشارهای بیشتر، گوگل با بازگرداندن عبارت اشتباه، در توضیحی جدید ادعا کرد که این یک «اشتباه رایج در رونویسی» است که هوش مصنوعی از داده‌های آموزشی خود یاد گرفته است.

اشتباه هوش مصنوعی گوگل درباره عضوی در مغز
اشتباه خطرناک هوش مصنوعی پزشکی گوگل: اشاره به عضوی در مغز که وجود خارجی ندارد

مشکلات به همین جا ختم نمی‌شود. آزمایش‌های انجام شده توسط متخصصان دیگر، یک ضعف اساسی دیگر را در این مدل‌های هوش مصنوعی آشکار کرده است: عدم ثبات در پاسخ‌دهی.

دکتر «جودی گیچویا» (Judy Gichoya) از دانشگاه اموری، در آزمایشی یک عکس رادیولوژی از قفسه سینه را به مدل جدیدتر گوگل، MedGemma، نشان داد. وقتی دکتر سؤالش را با جزئیات کامل (شامل ارائه سن و جنسیت بیمار) پرسید، هوش مصنوعی مشکل را به درستی تشخیص داد. اما وقتی همان عکس را با یک سؤال ساده‌تر (صرفاً «در این عکس چه می‌بینی؟») به هوش مصنوعی نشان داد، پاسخ کاملاً متفاوت بود: «این عکس یک قفسه سینه نرمال از یک فرد بزرگسال را نشان می‌دهد.» و مشکل به‌طور کامل نادیده گرفته شد.

این قضیه نشان می‌دهد که کوچک‌ترین تغییری در نحوه تعامل با هوش مصنوعی می‌تواند منجر به نتایج کاملاً متضاد و خطرناک شود.

کارشناسان معتقدند بزرگ‌ترین خطر این سیستم‌ها، اشتباهات گاه‌به‌گاه آنها نیست، بلکه اعتماد به لحن متقاعدکننده‌ای است که با آن، اطلاعات غلط (مانند وجود گانگلیون بازیلر) را به عنوان یک حقیقت علمی بیان می‌کنند.

 دکتر «جاناتان چن» (Jonathan Chen) از دانشگاه استنفورد، این پدیده را به رانندگی خودکار تشبیه می‌کند: «ماشین آنقدر خوب رانندگی کرده است که شما تصمیم می‌گیرید پشت فرمان بخوابید. این دقیقاً همان جایی است که خطر اتفاق می‌افتد.»

درکل پدیده‌ای که به آن «سوگیری اتوماسیون» (Automation Bias) گفته می‌شود، می‌تواند باعث شود پزشکان به دلیل عملکرد عمدتاً صحیح هوش مصنوعی، از بررسی دقیق نتایج آن غافل شوند و اشتباهات فاحش را نادیده بگیرند. کارشناسان می‌گویند این مدل‌ها ذاتاً تمایل به ساختن چیزها دارند و هرگز نمی‌گویند «من نمی‌دانم» و این یک مشکل بسیار بزرگ در حوزه‌های پرخطری مانند پزشکی است.

ثبت دیدگاه علمی و آموزشی

  • دیدگاه‌های ارسال شده توسط شما، پس از تایید توسط تیم مدیریت در وب منتشر خواهد شد.
  • پیام‌هایی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
  • پیام‌هایی که به غیر از زبان فارسی یا غیرمرتبط باشد منتشر نخواهد شد.