حدیث روز
امام علی (ع) می فرماید : هر کس از خود بدگویی و انتقاد کند٬ خود را اصلاح کرده و هر کس خودستایی نماید٬ پس به تحقیق خویش را تباه نموده است.

یکشنبه, ۲۱ دی , ۱۴۰۴ Sunday, 11 January , 2026 ساعت تعداد کل نوشته ها : 5820 تعداد نوشته های امروز : 6 تعداد اعضا : 30 تعداد دیدگاهها : 0×
OpenAI به افزایش خطر تولید سلاح‌های بیولوژیکی با هوش مصنوعی o1 اذعان کرد
1404-10-18 ساعت: ۵:۲۸
شناسه : 13744
بازدید 4
1

OpenAI می‌گوید مدل جدید o1 از لحاظ خطر مسائل مربوط به سلاح‌های بیولوژیکی در سطح متوسط قرار دارد.

ارسال توسط :
پ
پ

آخرین مدل هوش مصنوعی شرکت OpenAI با افزایش خطر سوءاستفاده برای ساخت سلاح‌های بیولوژیکی مواجه است و محققان امنیتی زنگ خطر را برای ریسک‌های این فناوری درحال پیشرفت به صدا درآورده‌اند. جالب این است که خود OpenAI نیز از این خطرات آگاه است و به آن اذعان کرده.

به گزارش Financial Times، شرکت OpenAI مدل جدید خود را با نام o1 پنجشنبه معرفی کرد و از قابلیت‌های جدیدی برای استدلال، حل مسائل سخت ریاضی و پاسخ به سؤالات تحقیقات علمی خبر داد. این توانایی‌ها پیشرفتی حیاتی برای ایجاد هوش جامع مصنوعی یا ماشین‌هایی با شناخت سطح انسانی دیده می‌شود.

شرکت OpenAI در بخشی از ابزار توضیح نحوه عملکرد هوش مصنوعی خود می‌گوید مدل‌های جدید خطر متوسطی برای مسائل مربوط به سلاح‌های شیمیایی، بیولوژیکی، رادیولوژیکی و هسته‌ای (CBRN) دارند.

سطح «متوسط» بالاترین رده‌ای است که شرکت OpenAI تابه‌حال به مدل‌های خود داده؛ یعنی این فناوری «به‌طرز معناداری کمک‌هایی ارائه می‌کند که توانایی متخصصان در زمینه‌های پیشرفته مرتبط با CBRN را افزایش می‌دهد تا بتوانند تهدید CBRN ایجاد کنند.»

مدل هوش مصنوعی جدید OpenAI

به گفته کارشناسان، این نرم‌افزار هوش مصنوعی با قابلیت‌های پیشرفته‌تر، مانند توانایی اجرای استدلال‌های گام‌به‌گام، خطر سوءاستفاده بازیگران بد را افزایش می‌دهد.

این هشدارها درحالی مطرح‌شده که شرکت‌های فناوری ازجمله گوگل، متا و انتروپیک برای ساخت و بهبود سیستم‌های هوش مصنوعی پیشرفته رقابت می‌کنند؛ زیرا به‌دنبال ایجاد نرم‌افزاری هستند که بتواند در جایگاه «عامل‌هایی» اقدام کند که به انسان‌ها در تکمیل وظایف و هدایت زندگی‌شان کمک خواهد کرد.

لایحه SB 1047 کالیفرنیا و مخالفت شرکت OpenAI با آن

این موضوع به تلاش‌هایی برای قانون‌گذاری درباره شرکت‌های هوش مصنوعی منجر شده است. در کالیفرنیا، بحثی پیرامون لایحه‌ای به نام SB 1047 درگرفته است که از سازندگان مدل‌های هوش مصنوعی می‌خواهد اقداماتی را برای به‌حداقل‌رساندن خطر استفاده از مدل‌هایشان برای توسعه سلاح‌های بیولوژیکی انجام دهند.

برخی سرمایه‌گذاران خطرپذیر و گروه‌های فناوری، ازجمله شرکت OpenAI، هشدار داده‌اند این قانون پیشنهادی می‌تواند تأثیر وحشتناکی بر صنعت هوش مصنوعی داشته باشد. «گاوین نیوسام»، فرماندار کالیفرنیا، باید طی روزهای آینده تصمیم بگیرد این قانون را امضا کند یا وتو.

ثبت دیدگاه

  • دیدگاه های ارسال شده توسط شما، پس از تایید توسط تیم مدیریت در وب منتشر خواهد شد.
  • پیام هایی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
  • پیام هایی که به غیر از زبان فارسی یا غیر مرتبط باشد منتشر نخواهد شد.