شنبه, ۲۲ فروردین , ۱۴۰۵ Saturday, 11 April , 2026 ساعت تعداد نوشته های امروز : 0×

تیتر اخبار آکادمی

برنامه درسی مدرسه تلویزیونی ایران برای شنبه 23 فروردین 1405 ملت ایران پرچمدار دفاع از حق و حقیقت در جهان است کاهش سرفاصله حرکت قطارهای مترو تهران از 22فروردین اجرای پویش فرهنگی به یاد دانش آموزان شهید میناب در تایلند مدارس تهران تا پایان فروردین غیرحضوری شد/فعالیت 50درصدی کارکنان ادارات چالش شهریه مدارس غیرانتفاعی در سال نیمه تعطیل/آموزش آنلاین،شهریه کامل؟ اعلام نحوه برگزاری ارزشیابی پایان سال تحصیلی 1405-1404 برنامه درسی مدرسه‌ تلویزیونی‌ ایران برای چهارشنبه تبیین فرهنگ ایثار و شهادت برای نسل دانش‌آموز ضروری است افزایش نیاز به خدمات روانی برای دانش‌آموزان مناطق آسیب‌دیده زمان ثبت‌نام آزمون سراسری 1405 اعلام شد اجرای طرح ملی آموزش هوش مصنوعی برای دانش‌آموزان و معلمان ٣١٢ دانش آموز و معلم تا روز سی‌ونهم جنگ شهید شدند گزارش سمپاد از فعالیت‌های دانش‌آموزان در ایام «جنگ رمضان» سرود صبحگاهی مدارس با شعری از رهبر شهید انقلاب اجرا می‌شود مستندسازی جنایت علیه دانش‌آموزان برای پیگیری حقوقی جهانی سوگواره 5 هزار دانش‌آموز در حرم رضوی به یاد شهدای میناب برنامه آموزش‌وپرورش در صورت لغو کنکور و امتحانات نهایی تمرکز آموزش‌وپرورش بر ارتقای تاب‌آوری و نشاط دانش‌آموزان بازنمایی حادثه مدرسه شجره طیبه میناب در کتاب‌های درسی شهادت 245 دانش آموز تا روز 37 جنگ/ تخریب 51 مدرسه الزام مدارس غیردولتی به اجرای کامل تعهدات آموزشی پخش برنامه‌های مدرسه تلویزیونی ایران در 16 فروردین از شبکه آموزش اعلام 14 سیاست راهبردی سازمان نوسازی مدارس برای سال 1405 راهنمای جامع 15 گانه برای برگزاری کلاس‌های غیرحضوری موفق تداوم طرح همیار سمپاد در ایام مقاومت ملی با محور عدالت آموزشی ادامه آموزش غیرحضوری با مدرسه تلویزیونی و درسنامه‌ها مدرسه‌ای که باید به یادمان تبدیل شود؛ چرا میناب نباید فراموش شود؟ اعلام برنامه درسی مدرسه تلویزیونی ایران در 15 فروردین بزرگداشت چهلم شهدای دانش‌آموز میناب در مدارس سراسر کشور مشکلى در شبکه شاد وجود ندارد زمان‌بندی جدید حضور دانش‌آموزان در برنامه شاد اعلام شد چگونه انهدام میدان گازی قطر، قلب صنعت فضایی جهان را از تپش انداخت؟ ستاد حقوق بشر خواستار پیگیری بین‌المللی فاجعه مدرسه میناب شد بیانیه سازمان سنجش در محکومیت حمله به دانشگاه‌ها و مراکز علمی امتحانات هماهنگ کشوری لغو شد/ برنامه ریزی هر استان به صورت مستقل شهادت 138 دانش‌آموز مدارس غیردولتی/ آسیب به 146مدرسه مدارس تا پایان فروردین مجازی شد عتبه مقدسه حسینیه(ع) به پویش فرشته های میناب پیوست اسکان نوروزى فرهنگیان تا زمان بازگشایى مدارس ادامه دارد ارائه سناریوهای جایگزین برای برگزاری امتحانات حضوری مدارس اعلام اولویت‌های آموزش و پرورش در شرایط جنگی عیادت معاون وزیر از دانش آموزان مجروح مدرسه میناب برگزاری امتحانات مدارس استعداد‌های درخشان و نمونه‌دولتی به زودی سال تحصیلی 1405-1404 تا پایان خرداد ماه ادامه خواهد داشت کلاس‌های دوره ابتدایی تا 28 اسفند بدون وقفه برگزار شد 252 دانش‌آموز و معلم در جنگ رمضان شهید شدند نامه تشکل‌های معلمی وآموزشی ایران به یونسکو و یونیسف درباره حملات اخیر اعتراض دانش‌آموزان ژاپنی به حملات آمریکا و رژیم صهیونیستی علیه ایران نهادهای متولی حقوق کودک برای محافظت از کودکان اقدام کنند

بنیان‌گذاران OpenAI به ابهامات درباره ایمنی مدل‌های هوش مصنوعی خود پاسخ دادند
1404-10-18
شناسه : 14836
بازدید 57
14

«سم آلتمن» و «گرگ براکمن» در بیانیه‌ای مشترک به ابهامات درباره خروج دو عضو کلیدی OpenAI واکنش نشان دادند.

ارسال توسط :
پ
پ

در چند روز گذشته ابتدا «ایلیا سوتسکیور»، دانشمند ارشد سابق OpenAI از این شرکت جدا شد و بعد «یان لیکه»، مدیر تیم ایمنی هوش مصنوعی از خروج خود از OpenAI خبر داد و مدعی شد که این شرکت اکنون توجه بیشتری به عرضه محصولات پرزرق‌وبرق دارد. حالا «گرگ براکمن» و «سم آلتمن» به این اتفاقات و صحبت‌ها واکنش نشان داده‌اند.

بیانیه سم آلتمن و گرگ براکمن درباره ایمنی هوش مصنوعی در OpenAI

گرگ براکمن، هم‌بنیان‌گذار OpenAI در پستی در صفحه شخصی خود در ایکس بیانیه‌ای را منتشر کرد که به‌صورت مشترک توسط او سم آلتمن نوشته شده است. این بیانیه ضمن تشکر از تلاش‌های یان لیکه برای این شرکت، به سه نکته برای رفع ابهامات اشاره می‌کند. در ابتدا می‌گوید OpenAI سطح آگاهی عمومی درباره ریسک‌ها و فرصت‌های هوش جامع مصنوعی (AGI) را ارتقا داده است تا جهان برای مواجهه با آن آماده‌تر باشد. آلتمن و براکمن همچنین یادآور شدند که این شرکت تاکنون بارها خواستار قانون‌گذاری و کنترل‌های بین‌المللی برای AGI بوده است.

این بیانیه در ادامه می‌گوید OpenAI زیرساخت‌های لازم برای توسعه سیستم‌های تواناتر را پیاده‌سازی کرده ولی اذعان می‌کند که پی‌بردن به چگونگی ایمن‌سازی فناوری‌های جدید کار آسانی نیست. بنیان‌گذاران OpenAI می‌گویند برای مثال، آن‌ها تلاش زیادی کردند تا مدل هوش مصنوعی GPT-4 را به‌شکلی ایمن منتشر کنند و به تلاش برای بهبود شرایط و جلوگیری از سوءاستفاده‌ها ادامه داده‌اند.

بنیان‌گذاران OpenAI به ابهامات درباره ایمنی مدل‌های هوش مصنوعی خود پاسخ دادند
بنیان‌گذاران OpenAI به ابهامات درباره ایمنی مدل‌های هوش مصنوعی خود پاسخ دادند

سومین نکته‌ای که براکمن و آلتمن به آن اشاره کرده‌اند، این واقعیت است که آینده از گذشته سخت‌تر خواهد بود. آن‌ها می‌گویند OpenAI باید ایمنی سیستم‌های خود را با هر مدل جدید ارتقا دهد. این دو پیش‌بینی می‌کنند که در آینده مدل‌های هوش مصنوعی بیشتر از قبل با دنیای واقعی درهم‌آمیخته شوند و کارهای مختلف را برای کاربران انجام دهند. به‌همین منظور لازم است که کارهای زیربنایی بسیار زیادی برای حفظ ایمنی آن‌ها صورت بگیرد و این اقدامات باید در زمینه شیوه‌های یادگیری، حل مسئله و دیگر مسائل مرتبط با ایمنی باشد.

گرگ براکمن و سم آلتمن تأکید کردند که این شرکت نمی‌تواند پیش‌بینی دقیقی از آینده داشته باشد، بنابراین به ایمن‌سازی تمامی فرایندهای خود ادامه خواهد داد تا برای ریسک‌های گوناگون آماده باشد. این بیانیه یادآور می‌شود که راه مشخصی برای حرکت به سمت AGI وجود ندارد، اما باید به‌طور همزمان به سمت ارائه قابلیت‌های مفید و در عین حال حفظ ایمنی حرکت کرد و این شرکت مسئولیت‌های خود را جدی می‌گیرد.

ثبت دیدگاه علمی و آموزشی

  • دیدگاه‌های ارسال شده توسط شما، پس از تایید توسط تیم مدیریت در وب منتشر خواهد شد.
  • پیام‌هایی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
  • پیام‌هایی که به غیر از زبان فارسی یا غیرمرتبط باشد منتشر نخواهد شد.