پنجشنبه, ۲۴ اردیبهشت , ۱۴۰۵ Thursday, 14 May , 2026 ساعت تعداد نوشته های امروز : 5×

تیتر اخبار آکادمی

تشریح جزئیات نحوه و زمان برگزاری امتحانات پایان سال و کنکور عرضه 500 عنوان کتاب انتشارات مدرسه در نمایشگاه مجازی تهران چرا کنکور ۱۴۰۵ سرنوشت ساز شد؛ چالش تاثیر ۶۰ درصدی سوابق تحصیلی وزارت آموزش‌وپرورش: معلمان باید طراح یادگیری باشند 21 سیارک به نام شهدای دانش‌آموز میناب نام‌گذاری شد کاظمی: قدردان تلاش معلمان در شرایط سخت هستیم ممنوعیت دریافت شهریه و برگزاری آزمون ورودی در مدارس هیئت‌امنایی چرا کنکور ۱۴۰۵ سرنوشت ساز شد؛ چالش تاثیر ۶۰ درصد سوابق تحصیلی برگزاری نمایشگاه کتاب کودک و نوجوان در مرکز آفرینش‌های کانون مهلت نام‌نویسی در آزمون مدارس استعدادهای درخشان فردا به پایان می‌رسد حقوق معلمان در سال 1405 حدود 30 درصد افزایش یافت پرداختن به موضوع دریا و منطقه مکران در کتاب‌های درسی برنامه مدرسه تلویزیونی ایران برای 22 اردیبهشت وزیر آموزش‌وپرورش: مدارس هیئت‌امنایی به‌معنای اختصاصی حذف می‌شوند نباید تست‌زنی جایگزین «فهمیدن» شود/تفکر انتقادی به چه معناست؟ اعلام برنامه درسی مدرسه تلویزیونی ایران برای دوشنبه 21 اردیبهشت بهره‌گیری از معلمان نمونه در تصمیم‌سازی مدارس غیردولتی حضور بیش از 3 هزار تیم در بزرگترین رویداد دانش‌آموزی کشور افزایش 60 درصدی شهریه مدارس غیردولتی برخلاف ابلاغ آموزش و پروش آمادگی آموزش‌وپرورش برای توسعه همکاری با دانشگاه فرهنگیان 168 فضای آموزشی به نام شهدای دانش‌آموز میناب ساخته می‌شود تاخیر در ثبت‌نام ورودی‌های جدید دانشگاه؛ آخرین خبرها از کنکور ۱۴۰۵ حذف مدارس هیئت‌امنایی در دستور کار شورای عالی آموزش‌وپرورش جشنواره پروژه‌های‌ دانش‌آموزی جوان برگزار می‌شود کاظمی: با تمام وجود در خدمت خانواده‌ شهدا هستیم هیچ کلاس درسی در میامی بدون معلم نیست؛ رشد ۲۰ درصدی قبولی در کنکور اعلام زمان ثبت‌نام و برگزاری آزمون‌های دکتری و کارشناسی ارشد 1406 شیوه‌نامه نقل و انتقال معلمان ابلاغ شد پویش جهاد علمی البرز؛ آموزش 3 میلیون دانش‌آموزان در سراسر کشور چگونه می‌توان دستاوردهای تربیتی جنگ تحمیلی سوم را حفظ و منتقل کرد؟ تولید اپلیکیشن «دوست شهید من» در دستور کار وزارت میراث‌فرهنگی اعلام جزئیات مرحله دوم ثبت‌نام سمپاد و مدارس نمونه دولتی پیام وزیر آموزش و پرورش به مناسبت فرارسیدن روز ملی سمپاد جزئیات انتخاب معلمان نمونه با مشارکت حداکثری دانش‌آموزان و خانواده‌ها شهریه ثابت، خدمات نصفه؛ گلایه خانواده‌ها از مدارس غیردولتی معلمانی که دانش‌آموز را برای «کار» تربیت می‌کنند نه فقط برای مدرک 420 هزار معلم زیر چتر بیمه تأمین اجتماعی توضیح آموزش‌وپرورش درباره شهریه مدارس سمپاد در آموزش غیرحضوری استرداد مابه‌التفاوت هزینه سرویس دانش‌آموزی ابلاغ شد امشب آخرین مهلت ثبت‌نام در آزمون مدارس سمپاد و نمونه دولتی کاظمی: تصمیم‌گیری درباره بازگشایی مدارس تابع سیاست‌های کلان کشور است سازمان سنجش زمان ثبت‌نام کنکور ۱۴۰۵ و آزمون دانشجو معلم را اعلام کرد زمان ثبت‌نام آزمون سراسری و دانشجو معلم 1405 اعلام شد جزئیات ثبت‌نام آزمون‌های سمپاد و نمونه دولتی اعلام شد الزام مدارس غیردولتی به آموزش مجازی؛ با متخلفان برخورد می‌شود دستور رئیس‌جمهور برای توسعه نیروگاه‌های خورشیدی در مدارس‌ اقدامات صندوق فرهنگیان؛ از بهره‌برداری یک شرکت پتروشیمی تا افتتاح هتل افزایش شهریه مدارس پیش از تصویب نهایی غیرقانونی است مدرسه در دوران جنگ کارکردی فراتر از زمان عادی دارد فرآیند انتخاب معلمان نمونه اعلام شد

انتقاد شدید محققان هوش مصنوعی از فرهنگ کاری xAI: توجهی به مسائل ایمنی نمی‌شود
1404-10-06
شناسه : 6055
بازدید 141
28

چت‌بات Grok متعلق به xAI در هفته‌های گذشته به دلیل حواشی خود در کانون توجهات بوده است.

ارسال توسط :
پ
پ

برخی پژوهشگران برجسته حوزه هوش مصنوعی از شرکت‌هایی مانند OpenAI و آنتروپیک، از فرهنگ ایمنی استارتاپ xAI متعلق به ایلان ماسک برای چت‌بات Grok به‌شدت انتقاد کرده‌اند و آن را نگران‌کننده و مغایر با استانداردهای رایج صنعت عنوان کرده‌اند.

در هفته‌های اخیر، اقدامات جنجالی هوش مصنوعی گراک (Grok) توجهات را به خود جلب کرده است. این چت‌بات ابتدا اظهاراتی ضدیهود را مطرح کرده بود و حتی خود را یک «مکاهیتلر» معرفی کرد. پس‌ازآن xAI از نسخه پیشرفته‌تری با نام Grok 4 به‌عنوان هوشمندترین هوش مصنوعی جهان رونمایی کرد.

اما در برخی گزارش‌ها اعلام شده بود که این نسخه جدید نیز در پاسخ به موضوعات حساس به دیدگاه‌های شخصی ایلان ماسک مراجعه می‌کند.

انتقاد شدید محققان هوش مصنوعی از فرهنگ کاری xAI: توجهی به مسائل ایمنی نمی‌شود
انتقاد شدید محققان هوش مصنوعی از فرهنگ کاری xAI: توجهی به مسائل ایمنی نمی‌شود

در تازه‌ترین حواشی مربوط به این چت‌بات نیز xAI اخیراً قابلیتی با نام «همراهان هوش مصنوعی» را معرفی کرد که شامل یک شخصیت انیمه‌ای دختر با ظاهری حساسیت‌برانگیز می‌شود و انتقادات جدی را به‌دنبال داشته است.

انتقادات از وضعیت ایمنی Grok

به‌دنبال تمام این حواشی، «بوآز باراک»، استاد علوم کامپیوتر دانشگاه هاروارد که درحال‌حاضر در OpenAI به تحقیق در حوزه ایمنی مشغول است، در پستی در شبکه اجتماعی ایکس نوشت:

«نمی‌خواستم درباره ایمنی گراک نظر بدهم چون در یک شرکت رقیب کار می‌کنم، اما این موضوع ربطی به رقابت ندارد. از تمام مهندسان و دانشمندان xAI قدردانی می‌کنم، اما روش کنترل امنیت در آن کاملاً غیرمسئولانه است.»

باراک در پست خود به‌طور خاص از تصمیم xAI برای عدم انتشار سیستم کارت Grok انتقاد کرده است؛ گزارشی رسمی که شامل روش‌های آموزشی و ارزیابی‌های ایمنی این شرکت می‌شود. او می‌گوید که دقیقاً مشخص نیست در مدل جدید Grok 4 چه اقدامات ایمنی در نظر گرفته شده‌اند.

البته OpenAI و گوگل نیز در انتشار به‌موقع سیستم کارت مدل‌های خود سابقه درخشانی ندارند. برای مثال، OpenAI تصمیم گرفت برای GPT-4.1 سیستم کارتی منتشر نکند و ادعا کرد این مدل، یک مدل پیشرو (Frontier Model) نیست. گوگل نیز ماه‌ها پس از معرفی Gemini 2.5 Pro گزارش ایمنی مربوط به آن را منتشر کرد. بااین‌حال، این شرکت‌ها پیش از عرضه کامل مدل‌های مرزی هوش مصنوعی خود، گزارش‌های ایمنی آن را منتشر می‌کنند.

«ساموئل مارکس»، پژوهشگر ایمنی هوش مصنوعی در استارتاپ Anthropic نیز تصمیم xAI برای عدم انتشار گزارش ایمنی را «بی‌پروا» توصیف کرده و گفته است:

«OpenAI ،Anthropic و گوگل نیز ایراداتی در نحوه انتشار دارند، اما حداقل برای ارزیابی ایمنی و مستندسازی آن کاری انجام می‌دهند. xAI حتی همین کار را هم انجام نمی‌دهد.»

درهمین‌حال، در پستی که در فروم LessWrong منتشر شده، یک پژوهشگر ناشناس ادعا کرده که Grok 4 عملاً هیچ دستورالعمل ایمنی معناداری ندارد.

انتقاد شدید محققان هوش مصنوعی از فرهنگ کاری xAI: توجهی به مسائل ایمنی نمی‌شود
انتقاد شدید محققان هوش مصنوعی از فرهنگ کاری xAI: توجهی به مسائل ایمنی نمی‌شود

در پاسخ به این نگرانی‌ها، «دن هندریکس»، مشاور ایمنی xAI و مدیر مرکز ایمنی هوش مصنوعی (Center for AI Safety)، در ایکس اعلام کرد که این شرکت «ارزیابی توانایی‌های خطرناک» (Dangerous Capability Evaluations) را روی Grok 4 انجام داده است. بااین‌حال، نتایج این ارزیابی‌ها هنوز به‌صورت عمومی منتشر نشده‌اند.

«استیون ادلر»، پژوهشگر مستقل حوزه هوش مصنوعی که پیش‌تر مسئول تیم‌های ایمنی در OpenAI بوده نیز در گفتگو با TechCrunch می‌گوید:

«وقتی رویه‌های استاندارد ایمنی در صنعت هوش مصنوعی رعایت نمی‌شود — مانند انتشار نتایج ارزیابی‌های خطرناک — نگران می‌شوم. دولت‌ها و مردم حق دارند بدانند شرکت‌های هوش مصنوعی چطور با خطرات سیستم‌هایی که می‌گویند بسیار قدرتمند هستند، مواجه می‌شوند.»

برای رسیدگی به این مشکلات، تلاش‌هایی در سطح ایالتی نیز درحال انجام است. برای مثال «اسکات وینر»، سناتور ایالت کالیفرنیا، درحال پیگیری لایحه‌ای است که شرکت‌های پیشرو هوش مصنوعی (ازجمله احتمالاً xAI) را مجبور به انتشار گزارش‌های ایمنی می‌کند. همچنین «کتی هوچول»، فرماندار ایالت نیویورک، لایحه مشابهی را در دست بررسی دارد.

ثبت دیدگاه علمی و آموزشی

  • دیدگاه‌های ارسال شده توسط شما، پس از تایید توسط تیم مدیریت در وب منتشر خواهد شد.
  • پیام‌هایی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
  • پیام‌هایی که به غیر از زبان فارسی یا غیرمرتبط باشد منتشر نخواهد شد.