شنبه, ۲۲ فروردین , ۱۴۰۵ Saturday, 11 April , 2026 ساعت تعداد نوشته های امروز : 0×

تیتر اخبار آکادمی

جدول پخش مدرسه تلویزیونی دانش‌آموزان تا 27 فروردین سرانه دانش‌آموزی تا سال 1405 به بیش از 16 هزار میلیارد تومان می‌رسد اهدای بسته فرهنگی کانون پرورش فکری به کودکان آسیب‌دیده از جنگ بازدید وزیر آموزش‌وپرورش از ساختمان آسیب‌دیده شهید باهنر ابلاغ جداول درسی فنی‌وحرفه‌ای و کاردانش برای سال تحصیلی 1406-1405 دانش فضایی ایران پابرجاست/ ضرورت رعایت پدافند در احداث مکان‌های جدید دانش فضایی ایران پابرجاست/ ضرورت رعایت پدافند در احداث مکان‌های جدید برنامه درسی مدرسه تلویزیونی ایران برای شنبه 23 فروردین 1405 ملت ایران پرچمدار دفاع از حق و حقیقت در جهان است کاهش سرفاصله حرکت قطارهای مترو تهران از 22فروردین اجرای پویش فرهنگی به یاد دانش آموزان شهید میناب در تایلند مدارس تهران تا پایان فروردین غیرحضوری شد/فعالیت 50درصدی کارکنان ادارات چالش شهریه مدارس غیرانتفاعی در سال نیمه تعطیل/آموزش آنلاین،شهریه کامل؟ اعلام نحوه برگزاری ارزشیابی پایان سال تحصیلی 1405-1404 برنامه درسی مدرسه‌ تلویزیونی‌ ایران برای چهارشنبه تبیین فرهنگ ایثار و شهادت برای نسل دانش‌آموز ضروری است افزایش نیاز به خدمات روانی برای دانش‌آموزان مناطق آسیب‌دیده زمان ثبت‌نام آزمون سراسری 1405 اعلام شد اجرای طرح ملی آموزش هوش مصنوعی برای دانش‌آموزان و معلمان ٣١٢ دانش آموز و معلم تا روز سی‌ونهم جنگ شهید شدند گزارش سمپاد از فعالیت‌های دانش‌آموزان در ایام «جنگ رمضان» سرود صبحگاهی مدارس با شعری از رهبر شهید انقلاب اجرا می‌شود مستندسازی جنایت علیه دانش‌آموزان برای پیگیری حقوقی جهانی سوگواره 5 هزار دانش‌آموز در حرم رضوی به یاد شهدای میناب برنامه آموزش‌وپرورش در صورت لغو کنکور و امتحانات نهایی تمرکز آموزش‌وپرورش بر ارتقای تاب‌آوری و نشاط دانش‌آموزان بازنمایی حادثه مدرسه شجره طیبه میناب در کتاب‌های درسی شهادت 245 دانش آموز تا روز 37 جنگ/ تخریب 51 مدرسه الزام مدارس غیردولتی به اجرای کامل تعهدات آموزشی پخش برنامه‌های مدرسه تلویزیونی ایران در 16 فروردین از شبکه آموزش اعلام 14 سیاست راهبردی سازمان نوسازی مدارس برای سال 1405 راهنمای جامع 15 گانه برای برگزاری کلاس‌های غیرحضوری موفق تداوم طرح همیار سمپاد در ایام مقاومت ملی با محور عدالت آموزشی ادامه آموزش غیرحضوری با مدرسه تلویزیونی و درسنامه‌ها مدرسه‌ای که باید به یادمان تبدیل شود؛ چرا میناب نباید فراموش شود؟ اعلام برنامه درسی مدرسه تلویزیونی ایران در 15 فروردین بزرگداشت چهلم شهدای دانش‌آموز میناب در مدارس سراسر کشور مشکلى در شبکه شاد وجود ندارد زمان‌بندی جدید حضور دانش‌آموزان در برنامه شاد اعلام شد چگونه انهدام میدان گازی قطر، قلب صنعت فضایی جهان را از تپش انداخت؟ ستاد حقوق بشر خواستار پیگیری بین‌المللی فاجعه مدرسه میناب شد بیانیه سازمان سنجش در محکومیت حمله به دانشگاه‌ها و مراکز علمی امتحانات هماهنگ کشوری لغو شد/ برنامه ریزی هر استان به صورت مستقل شهادت 138 دانش‌آموز مدارس غیردولتی/ آسیب به 146مدرسه مدارس تا پایان فروردین مجازی شد عتبه مقدسه حسینیه(ع) به پویش فرشته های میناب پیوست اسکان نوروزى فرهنگیان تا زمان بازگشایى مدارس ادامه دارد ارائه سناریوهای جایگزین برای برگزاری امتحانات حضوری مدارس اعلام اولویت‌های آموزش و پرورش در شرایط جنگی عیادت معاون وزیر از دانش آموزان مجروح مدرسه میناب

انتقاد شدید محققان هوش مصنوعی از فرهنگ کاری xAI: توجهی به مسائل ایمنی نمی‌شود
1404-10-06
شناسه : 6055
بازدید 105
16

چت‌بات Grok متعلق به xAI در هفته‌های گذشته به دلیل حواشی خود در کانون توجهات بوده است.

ارسال توسط :
پ
پ

برخی پژوهشگران برجسته حوزه هوش مصنوعی از شرکت‌هایی مانند OpenAI و آنتروپیک، از فرهنگ ایمنی استارتاپ xAI متعلق به ایلان ماسک برای چت‌بات Grok به‌شدت انتقاد کرده‌اند و آن را نگران‌کننده و مغایر با استانداردهای رایج صنعت عنوان کرده‌اند.

در هفته‌های اخیر، اقدامات جنجالی هوش مصنوعی گراک (Grok) توجهات را به خود جلب کرده است. این چت‌بات ابتدا اظهاراتی ضدیهود را مطرح کرده بود و حتی خود را یک «مکاهیتلر» معرفی کرد. پس‌ازآن xAI از نسخه پیشرفته‌تری با نام Grok 4 به‌عنوان هوشمندترین هوش مصنوعی جهان رونمایی کرد.

اما در برخی گزارش‌ها اعلام شده بود که این نسخه جدید نیز در پاسخ به موضوعات حساس به دیدگاه‌های شخصی ایلان ماسک مراجعه می‌کند.

انتقاد شدید محققان هوش مصنوعی از فرهنگ کاری xAI: توجهی به مسائل ایمنی نمی‌شود
انتقاد شدید محققان هوش مصنوعی از فرهنگ کاری xAI: توجهی به مسائل ایمنی نمی‌شود

در تازه‌ترین حواشی مربوط به این چت‌بات نیز xAI اخیراً قابلیتی با نام «همراهان هوش مصنوعی» را معرفی کرد که شامل یک شخصیت انیمه‌ای دختر با ظاهری حساسیت‌برانگیز می‌شود و انتقادات جدی را به‌دنبال داشته است.

انتقادات از وضعیت ایمنی Grok

به‌دنبال تمام این حواشی، «بوآز باراک»، استاد علوم کامپیوتر دانشگاه هاروارد که درحال‌حاضر در OpenAI به تحقیق در حوزه ایمنی مشغول است، در پستی در شبکه اجتماعی ایکس نوشت:

«نمی‌خواستم درباره ایمنی گراک نظر بدهم چون در یک شرکت رقیب کار می‌کنم، اما این موضوع ربطی به رقابت ندارد. از تمام مهندسان و دانشمندان xAI قدردانی می‌کنم، اما روش کنترل امنیت در آن کاملاً غیرمسئولانه است.»

باراک در پست خود به‌طور خاص از تصمیم xAI برای عدم انتشار سیستم کارت Grok انتقاد کرده است؛ گزارشی رسمی که شامل روش‌های آموزشی و ارزیابی‌های ایمنی این شرکت می‌شود. او می‌گوید که دقیقاً مشخص نیست در مدل جدید Grok 4 چه اقدامات ایمنی در نظر گرفته شده‌اند.

البته OpenAI و گوگل نیز در انتشار به‌موقع سیستم کارت مدل‌های خود سابقه درخشانی ندارند. برای مثال، OpenAI تصمیم گرفت برای GPT-4.1 سیستم کارتی منتشر نکند و ادعا کرد این مدل، یک مدل پیشرو (Frontier Model) نیست. گوگل نیز ماه‌ها پس از معرفی Gemini 2.5 Pro گزارش ایمنی مربوط به آن را منتشر کرد. بااین‌حال، این شرکت‌ها پیش از عرضه کامل مدل‌های مرزی هوش مصنوعی خود، گزارش‌های ایمنی آن را منتشر می‌کنند.

«ساموئل مارکس»، پژوهشگر ایمنی هوش مصنوعی در استارتاپ Anthropic نیز تصمیم xAI برای عدم انتشار گزارش ایمنی را «بی‌پروا» توصیف کرده و گفته است:

«OpenAI ،Anthropic و گوگل نیز ایراداتی در نحوه انتشار دارند، اما حداقل برای ارزیابی ایمنی و مستندسازی آن کاری انجام می‌دهند. xAI حتی همین کار را هم انجام نمی‌دهد.»

درهمین‌حال، در پستی که در فروم LessWrong منتشر شده، یک پژوهشگر ناشناس ادعا کرده که Grok 4 عملاً هیچ دستورالعمل ایمنی معناداری ندارد.

انتقاد شدید محققان هوش مصنوعی از فرهنگ کاری xAI: توجهی به مسائل ایمنی نمی‌شود
انتقاد شدید محققان هوش مصنوعی از فرهنگ کاری xAI: توجهی به مسائل ایمنی نمی‌شود

در پاسخ به این نگرانی‌ها، «دن هندریکس»، مشاور ایمنی xAI و مدیر مرکز ایمنی هوش مصنوعی (Center for AI Safety)، در ایکس اعلام کرد که این شرکت «ارزیابی توانایی‌های خطرناک» (Dangerous Capability Evaluations) را روی Grok 4 انجام داده است. بااین‌حال، نتایج این ارزیابی‌ها هنوز به‌صورت عمومی منتشر نشده‌اند.

«استیون ادلر»، پژوهشگر مستقل حوزه هوش مصنوعی که پیش‌تر مسئول تیم‌های ایمنی در OpenAI بوده نیز در گفتگو با TechCrunch می‌گوید:

«وقتی رویه‌های استاندارد ایمنی در صنعت هوش مصنوعی رعایت نمی‌شود — مانند انتشار نتایج ارزیابی‌های خطرناک — نگران می‌شوم. دولت‌ها و مردم حق دارند بدانند شرکت‌های هوش مصنوعی چطور با خطرات سیستم‌هایی که می‌گویند بسیار قدرتمند هستند، مواجه می‌شوند.»

برای رسیدگی به این مشکلات، تلاش‌هایی در سطح ایالتی نیز درحال انجام است. برای مثال «اسکات وینر»، سناتور ایالت کالیفرنیا، درحال پیگیری لایحه‌ای است که شرکت‌های پیشرو هوش مصنوعی (ازجمله احتمالاً xAI) را مجبور به انتشار گزارش‌های ایمنی می‌کند. همچنین «کتی هوچول»، فرماندار ایالت نیویورک، لایحه مشابهی را در دست بررسی دارد.

ثبت دیدگاه علمی و آموزشی

  • دیدگاه‌های ارسال شده توسط شما، پس از تایید توسط تیم مدیریت در وب منتشر خواهد شد.
  • پیام‌هایی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
  • پیام‌هایی که به غیر از زبان فارسی یا غیرمرتبط باشد منتشر نخواهد شد.