یکشنبه, ۲۳ فروردین , ۱۴۰۵ Sunday, 12 April , 2026 ساعت تعداد نوشته های امروز : 8×

تیتر اخبار آکادمی

جدول پخش مدرسه تلویزیونی دانش‌آموزان تا 27 فروردین سرانه دانش‌آموزی تا سال 1405 به بیش از 16 هزار میلیارد تومان می‌رسد اهدای بسته فرهنگی کانون پرورش فکری به کودکان آسیب‌دیده از جنگ بازدید وزیر آموزش‌وپرورش از ساختمان آسیب‌دیده شهید باهنر ابلاغ جداول درسی فنی‌وحرفه‌ای و کاردانش برای سال تحصیلی 1406-1405 دانش فضایی ایران پابرجاست/ ضرورت رعایت پدافند در احداث مکان‌های جدید دانش فضایی ایران پابرجاست/ ضرورت رعایت پدافند در احداث مکان‌های جدید برنامه درسی مدرسه تلویزیونی ایران برای شنبه 23 فروردین 1405 ملت ایران پرچمدار دفاع از حق و حقیقت در جهان است کاهش سرفاصله حرکت قطارهای مترو تهران از 22فروردین اجرای پویش فرهنگی به یاد دانش آموزان شهید میناب در تایلند مدارس تهران تا پایان فروردین غیرحضوری شد/فعالیت 50درصدی کارکنان ادارات چالش شهریه مدارس غیرانتفاعی در سال نیمه تعطیل/آموزش آنلاین،شهریه کامل؟ اعلام نحوه برگزاری ارزشیابی پایان سال تحصیلی 1405-1404 برنامه درسی مدرسه‌ تلویزیونی‌ ایران برای چهارشنبه تبیین فرهنگ ایثار و شهادت برای نسل دانش‌آموز ضروری است افزایش نیاز به خدمات روانی برای دانش‌آموزان مناطق آسیب‌دیده زمان ثبت‌نام آزمون سراسری 1405 اعلام شد اجرای طرح ملی آموزش هوش مصنوعی برای دانش‌آموزان و معلمان ٣١٢ دانش آموز و معلم تا روز سی‌ونهم جنگ شهید شدند گزارش سمپاد از فعالیت‌های دانش‌آموزان در ایام «جنگ رمضان» سرود صبحگاهی مدارس با شعری از رهبر شهید انقلاب اجرا می‌شود مستندسازی جنایت علیه دانش‌آموزان برای پیگیری حقوقی جهانی سوگواره 5 هزار دانش‌آموز در حرم رضوی به یاد شهدای میناب برنامه آموزش‌وپرورش در صورت لغو کنکور و امتحانات نهایی تمرکز آموزش‌وپرورش بر ارتقای تاب‌آوری و نشاط دانش‌آموزان بازنمایی حادثه مدرسه شجره طیبه میناب در کتاب‌های درسی شهادت 245 دانش آموز تا روز 37 جنگ/ تخریب 51 مدرسه الزام مدارس غیردولتی به اجرای کامل تعهدات آموزشی پخش برنامه‌های مدرسه تلویزیونی ایران در 16 فروردین از شبکه آموزش اعلام 14 سیاست راهبردی سازمان نوسازی مدارس برای سال 1405 راهنمای جامع 15 گانه برای برگزاری کلاس‌های غیرحضوری موفق تداوم طرح همیار سمپاد در ایام مقاومت ملی با محور عدالت آموزشی ادامه آموزش غیرحضوری با مدرسه تلویزیونی و درسنامه‌ها مدرسه‌ای که باید به یادمان تبدیل شود؛ چرا میناب نباید فراموش شود؟ اعلام برنامه درسی مدرسه تلویزیونی ایران در 15 فروردین بزرگداشت چهلم شهدای دانش‌آموز میناب در مدارس سراسر کشور مشکلى در شبکه شاد وجود ندارد زمان‌بندی جدید حضور دانش‌آموزان در برنامه شاد اعلام شد چگونه انهدام میدان گازی قطر، قلب صنعت فضایی جهان را از تپش انداخت؟ ستاد حقوق بشر خواستار پیگیری بین‌المللی فاجعه مدرسه میناب شد بیانیه سازمان سنجش در محکومیت حمله به دانشگاه‌ها و مراکز علمی امتحانات هماهنگ کشوری لغو شد/ برنامه ریزی هر استان به صورت مستقل شهادت 138 دانش‌آموز مدارس غیردولتی/ آسیب به 146مدرسه مدارس تا پایان فروردین مجازی شد عتبه مقدسه حسینیه(ع) به پویش فرشته های میناب پیوست اسکان نوروزى فرهنگیان تا زمان بازگشایى مدارس ادامه دارد ارائه سناریوهای جایگزین برای برگزاری امتحانات حضوری مدارس اعلام اولویت‌های آموزش و پرورش در شرایط جنگی عیادت معاون وزیر از دانش آموزان مجروح مدرسه میناب

پرونده مرگ نوجوان 14 ساله به‌دلیل تعامل با هوش مصنوعی Character.AI وارد مرحله قضایی شد
1404-10-12
شناسه : 8685
بازدید 70
18

دادگاه آمریکا شکایت مادر نوجوانی را درباره مرگ فرزندش بر اثر استفاده از چت‌بات هوش مصنوعی Character.AI و گوگل پذیرفته است.

ارسال توسط :
پ
پ

سال گذشته دو شرکت Character.AI و شریک نزدیک آن، گوگل، در شکایتی به عرضه بی‌ملاحظه چت‌بات‌های هوش مصنوعی که باعث خودکشی یک نوجوان 14 ساله شده، متهم شدند. حالا قاضی فدرال ایالت فلوریدا درخواست مربوط به لغو این شکایت را رد کرده است تا راه برای پیگیری قضایی یکی از اولین پرونده‌های مربوط به هوش مصنوعی هموار شود.

در این شکایت که اکتبر سال گذشته ثبت شده بود، ادعا شده که چت‌بات‌های Character.AI با سوءاستفاده احساسی و جنسی از نوجوانی به نام «سوئل ستزر سوم»، موجب وابستگی شدید او به این پلتفرم، رنج روانی و درنهایت خودکشی او در فوریه 2024 شده‌اند.

در ژانویه 2025، متهمان این پرونده (شرکت Character.AI و دو بنیان‌گذار آن یعنی «نوام شازیر» و «دنیل دِ فریتاس» همراه با گوگل) با استناد به متمم اول قانون اساسی آمریکا (حق آزادی بیان)، درخواست رد شکایت را ارائه دادند. آنها استدلال کردند که محتوای تولیدشده توسط چت‌بات‌ها «سخن» محسوب می‌شود و حتی اگر این سخن باعث آسیب یا خودکشی شود، باز هم تحت محافظت قانونی قرار دارد.

حکم قاضی برای خودکشی ناشی از تعامل با هوش مصنوعی

پرونده مرگ نوجوان 14 ساله به‌دلیل تعامل با هوش مصنوعی Character.AI وارد مرحله قضایی شد
پرونده مرگ نوجوان 14 ساله به‌دلیل تعامل با هوش مصنوعی Character.AI وارد مرحله قضایی شد

اما قاضی «آن کانوی» این استدلال را نپذیرفته است. در نظر حقوقی خود، او اعلام کرده که متهمان نتوانسته‌اند نشان بدهند که خروجی‌های تولیدشده توسط مدل‌های زبانی بزرگ (LLM) فراتر از صرفاً کلمات تصادفی هستند و بتوان آنها را به‌عنوان «سخن» تلقی کرد.

البته قاضی بخشی از شکایت، یعنی ادعای «تحمیل عمدی رنج روانی» را رد کرده است، چرا که اثبات این ادعا وقتی فرد آسیب‌دیده دیگر در قید حیات نیست، بسیار دشوار است.

بااین‌حال، این رأی به ضرر شرکت‌های بزرگ سیلیکون‌ولی تمام شد که قصد داشتند این شکایت را به‌کلی کنار بزنند. مهم‌تر آن‌که قاضی کانوی به «مگان گارسیا» (شاکی پرونده) اجازه داده تا بر مبنای «مسئولیت تولید محصول» از شرکت Character.AI (و بنیانگذاران آن) و گوگل شکایت کند.

پس از انتشار این خبر، سخنگوی گوگل به رویترز گفت که گوگل و Character.AI «کاملاً از هم جدا هستند» و گوگل «هیچ‌گونه نقشی در طراحی، ساخت یا مدیریت اپلیکیشن Character.AI یا هیچ‌یک از اجزای آن نداشته است.» سخنگوی Character.AI نیز در بیانیه خود ضمن اشاره به اقدامات ایمنی اخیر پس از شکایت گارسیا، تأکید شد که شرکت از خود دفاع خواهد کرد:

«قانون همواره با تأخیر نسبت به فناوری‌های نوین واکنش نشان می‌دهد و این موضوع درباره هوش مصنوعی نیز صادق است. در دستور امروز، دادگاه روشن کرد که هنوز آماده تصمیم‌گیری نهایی درباره تمام استدلال‌های Character.AI نیست و ما به دفاع از خود ادامه خواهیم داد. علاوه‌براین، ما از فناوری‌هایی برای شناسایی و پیشگیری از گفتگوهای مرتبط با خودآزاری استفاده می‌کنیم. در برخی موارد نیز پیام‌های هشداردهنده‌ای نمایش داده می‌شود که کاربر را به خطوط اضطراری ملی سلامت روان هدایت می‌کنند.»

البته تمام این تغییرات پس از مرگ این نوجوان و ثبت شکایت اعلام شده‌اند و نقشی در تصمیم نهایی دادگاه نخواهند داشت.

ثبت دیدگاه علمی و آموزشی

  • دیدگاه‌های ارسال شده توسط شما، پس از تایید توسط تیم مدیریت در وب منتشر خواهد شد.
  • پیام‌هایی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
  • پیام‌هایی که به غیر از زبان فارسی یا غیرمرتبط باشد منتشر نخواهد شد.