شنبه, ۲۲ فروردین , ۱۴۰۵ Saturday, 11 April , 2026 ساعت تعداد نوشته های امروز : 4×

تیتر اخبار آکادمی

جدول پخش مدرسه تلویزیونی دانش‌آموزان تا 27 فروردین سرانه دانش‌آموزی تا سال 1405 به بیش از 16 هزار میلیارد تومان می‌رسد اهدای بسته فرهنگی کانون پرورش فکری به کودکان آسیب‌دیده از جنگ بازدید وزیر آموزش‌وپرورش از ساختمان آسیب‌دیده شهید باهنر ابلاغ جداول درسی فنی‌وحرفه‌ای و کاردانش برای سال تحصیلی 1406-1405 دانش فضایی ایران پابرجاست/ ضرورت رعایت پدافند در احداث مکان‌های جدید دانش فضایی ایران پابرجاست/ ضرورت رعایت پدافند در احداث مکان‌های جدید برنامه درسی مدرسه تلویزیونی ایران برای شنبه 23 فروردین 1405 ملت ایران پرچمدار دفاع از حق و حقیقت در جهان است کاهش سرفاصله حرکت قطارهای مترو تهران از 22فروردین اجرای پویش فرهنگی به یاد دانش آموزان شهید میناب در تایلند مدارس تهران تا پایان فروردین غیرحضوری شد/فعالیت 50درصدی کارکنان ادارات چالش شهریه مدارس غیرانتفاعی در سال نیمه تعطیل/آموزش آنلاین،شهریه کامل؟ اعلام نحوه برگزاری ارزشیابی پایان سال تحصیلی 1405-1404 برنامه درسی مدرسه‌ تلویزیونی‌ ایران برای چهارشنبه تبیین فرهنگ ایثار و شهادت برای نسل دانش‌آموز ضروری است افزایش نیاز به خدمات روانی برای دانش‌آموزان مناطق آسیب‌دیده زمان ثبت‌نام آزمون سراسری 1405 اعلام شد اجرای طرح ملی آموزش هوش مصنوعی برای دانش‌آموزان و معلمان ٣١٢ دانش آموز و معلم تا روز سی‌ونهم جنگ شهید شدند گزارش سمپاد از فعالیت‌های دانش‌آموزان در ایام «جنگ رمضان» سرود صبحگاهی مدارس با شعری از رهبر شهید انقلاب اجرا می‌شود مستندسازی جنایت علیه دانش‌آموزان برای پیگیری حقوقی جهانی سوگواره 5 هزار دانش‌آموز در حرم رضوی به یاد شهدای میناب برنامه آموزش‌وپرورش در صورت لغو کنکور و امتحانات نهایی تمرکز آموزش‌وپرورش بر ارتقای تاب‌آوری و نشاط دانش‌آموزان بازنمایی حادثه مدرسه شجره طیبه میناب در کتاب‌های درسی شهادت 245 دانش آموز تا روز 37 جنگ/ تخریب 51 مدرسه الزام مدارس غیردولتی به اجرای کامل تعهدات آموزشی پخش برنامه‌های مدرسه تلویزیونی ایران در 16 فروردین از شبکه آموزش اعلام 14 سیاست راهبردی سازمان نوسازی مدارس برای سال 1405 راهنمای جامع 15 گانه برای برگزاری کلاس‌های غیرحضوری موفق تداوم طرح همیار سمپاد در ایام مقاومت ملی با محور عدالت آموزشی ادامه آموزش غیرحضوری با مدرسه تلویزیونی و درسنامه‌ها مدرسه‌ای که باید به یادمان تبدیل شود؛ چرا میناب نباید فراموش شود؟ اعلام برنامه درسی مدرسه تلویزیونی ایران در 15 فروردین بزرگداشت چهلم شهدای دانش‌آموز میناب در مدارس سراسر کشور مشکلى در شبکه شاد وجود ندارد زمان‌بندی جدید حضور دانش‌آموزان در برنامه شاد اعلام شد چگونه انهدام میدان گازی قطر، قلب صنعت فضایی جهان را از تپش انداخت؟ ستاد حقوق بشر خواستار پیگیری بین‌المللی فاجعه مدرسه میناب شد بیانیه سازمان سنجش در محکومیت حمله به دانشگاه‌ها و مراکز علمی امتحانات هماهنگ کشوری لغو شد/ برنامه ریزی هر استان به صورت مستقل شهادت 138 دانش‌آموز مدارس غیردولتی/ آسیب به 146مدرسه مدارس تا پایان فروردین مجازی شد عتبه مقدسه حسینیه(ع) به پویش فرشته های میناب پیوست اسکان نوروزى فرهنگیان تا زمان بازگشایى مدارس ادامه دارد ارائه سناریوهای جایگزین برای برگزاری امتحانات حضوری مدارس اعلام اولویت‌های آموزش و پرورش در شرایط جنگی عیادت معاون وزیر از دانش آموزان مجروح مدرسه میناب

تشخیص واقعیت از جعل عمیق دیگر ممکن نیست
1404-10-06
شناسه : 6244
بازدید 271
16

در طول سال ۲۰۲۵، جعل عمیق به‌طرز چشمگیری پیشرفت کرد. چهره‌ها، صداها و حتی اجراهای تمام‌قد تولیدشده با هوش مصنوعی که افراد واقعی را شبیه‌سازی می‌کنند، از نظر کیفیت فراتر از چیزی رفتند که حتی بسیاری از کارشناسان چند سال پیش انتظارش را داشتند. در عین حال، استفاده از آن‌ها برای فریب دادن مردم نیز به‌طور محسوسی افزایش یافت.

ارسال توسط :
پ
پ

به گزارش ایسنا، در بسیاری از موقعیت‌های روزمره به‌ویژه تماس‌های ویدئویی با کیفیت پایین و محتوایی که در شبکه‌های اجتماعی دست‌به‌دست می‌شود، میزان واقعی بودن جعل‌های عمیق آن‌قدر بالاست که به‌طور قابل‌اعتماد افراد غیرمتخصص را فریب می‌دهد. از نظر عملی، تولیدات مصنوعی برای مردم عادی و در برخی موارد حتی برای نهادها، از داده‌های واقعی غیرقابل‌تمایز شده‌اند.

به نقل از گیزمودو، این جهش فقط به کیفیت محدود نمی‌شود. حجم جعل‌های عمیق نیز به‌طور انفجاری افزایش یافته است. شرکت امنیت سایبری «دیپ‌استرایک» برآورد می‌کند که تعداد جعل‌های عمیق آنلاین از حدود ۵۰۰ هزار مورد در سال ۲۰۲۳ به حدود هشت میلیون مورد در سال ۲۰۲۵ رسیده است که رشدی سالانه نزدیک به ۹۰۰ درصد است.

یک دانشمند علوم رایانه که روی جعل‌های عمیق و دیگر تولیدات مصنوعی پژوهش می‌کند، می‌گوید: از نظر من، وضعیت احتمالا در سال ۲۰۲۶ بدتر هم خواهد شد، زیرا جعل‌های عمیق به اجراکنندگان مصنوعی تبدیل می‌شوند که قادرند در لحظه به انسان‌ها واکنش نشان دهند.

چند تحول فنی، پایه‌های این جهش چشمگیر را شکل داده‌اند. نخست، میزان واقعی بودن ویدئوها به لطف نسل تازه‌ای از مدل‌های تولید ویدئو است که به‌طور ویژه برای حفظ «انسجام زمانی» طراحی شده‌اند. این مدل‌ها قادرند ویدئوهایی را بسازند که در آن‌ها حرکت‌ها طبیعی و پیوسته‌اند، هویت افراد در طول صحنه ثابت می‌ماند و محتوا از یک فریم به فریم بعد منطقی، هماهنگ و باورپذیر است. این مدل‌ها اطلاعات مربوط به نمایش هویت یک فرد را از اطلاعات مربوط به حرکت جدا می‌کنند؛ به‌گونه‌ای که می‌توان یک حرکت مشخص را به هویت‌های مختلف نسبت داد یا یک هویت واحد را با انواع حرکت‌ها نمایش داد.

در نتیجه، این مدل‌ها چهره‌هایی پایدار و منسجم تولید می‌کنند، بدون آن سوسو زدن، اعوجاج یا تغییر شکل‌های ساختاری در اطراف چشم و خط فک که زمانی به‌عنوان شواهد قابل‌اعتماد برای شناسایی جعل‌های عمیق به کار می‌رفت.

عبور شبیه‌سازی صدا از چیزی است که او آن را «آستانه غیرقابل‌تشخیص بودن» می‌نامد. اکنون چند ثانیه صدا کافی است تا یک نسخه شبیه‌سازی شده متقاعدکننده همراه با آهنگ گفتار طبیعی، ریتم، تاکید، احساس، مکث‌ها و حتی صدای نفس کشیدن ایجاد شود. این توانایی همین حالا هم به کلاهبرداری‌های گسترده دامن زده است. برخی خرده‌فروشان بزرگ گزارش می‌دهند که روزانه بیش از هزار تماس کلاهبرداری تولیدشده با هوش مصنوعی دریافت می‌کنند. نشانه‌های شنیداری‌ که زمانی صدای مصنوعی را لو می‌دادند، تا حد زیادی از بین رفته‌اند.

ابزارهای مصرفی هستند که مانع فنی را تقریبا به صفر رسانده‌اند. ارتقاهای هوش‌های مصنوعی سورا ۲ اوپن ای‌آی (OpenAI Sora ۲) و وئو ۳ گوگل  (Google Veo ۳)، به‌همراه موجی از استارتاپ‌ها، به این معناست که تقریبا هر کسی می‌تواند یک ایده را توصیف کند و اجازه دهد یک مدل زبانی بزرگ مانند چت جی‌پی‌تی یا جمینای سناریوی آن را بنویسد و در عرض چند دقیقه محتوای صوتی-تصویری تولید کند. عامل‌های هوش مصنوعی می‌توانند کل این فرایند را خودکار کنند. توانایی تولید جعل‌های عمیق منسجم و داستان‌محور در مقیاس بزرگ عملا همگانی شده است.

ترکیبِ افزایش سرسام‌آور تعداد جعل‌های عمیق با «شخصیت‌هایی» که تقریبا از انسان‌های واقعی قابل‌تشخیص نیستند، چالش‌های جدی برای شناسایی جعل‌های عمیق ایجاد می‌کند، به‌ویژه در محیط رسانه‌ای‌ که توجه افراد پراکنده است و محتوا سریع‌تر از آن منتشر می‌شود که بتوان آن را راستی‌آزمایی کرد. پیش‌تر نیز آسیب‌های واقعی رخ داده‌اند؛ از اطلاعات نادرست گرفته تا آزار هدفمند و کلاهبرداری‌های مالی که با کمک جعل‌های عمیق و پیش از آنکه مردم متوجه شوند چه اتفاقی افتاده، گسترش یافته‌اند.

با نگاه به آینده، مسیر سال آینده روشن است: جعل‌های عمیق به‌سمت تولید در لحظه حرکت می‌کنند؛ یعنی ساخت ویدئوهایی که بسیار نزدیک به ظرافت‌های ظاهری انسان هستند و شناسایی آن‌ها را برای سامانه‌های تشخیص دشوارتر می‌کنند. مدل‌هایی که محتوای زنده یا نزدیک به زنده تولید می‌کنند، نه کلیپ‌های از پیش تولید شده.

با بلوغ این قابلیت‌ها، شکاف ادراکی میان رسانه‌های مصنوعی و انسانیِ واقعی همچنان کمتر خواهد شد. خط دفاعی معنادار، دیگر بر قضاوت انسان متکی نخواهد بود. در عوض، به حفاظت‌های زیرساختی وابسته می‌شود؛ از جمله منشأ امن محتوا، مانند امضای رمزنگاری‌شده رسانه‌ها و ابزارهای تولید محتوا. دیگر فقط دقیق‌تر نگاه کردن به پیکسل‌ها کافی نخواهد بود.

انتهای پیام

ثبت دیدگاه علمی و آموزشی

  • دیدگاه‌های ارسال شده توسط شما، پس از تایید توسط تیم مدیریت در وب منتشر خواهد شد.
  • پیام‌هایی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
  • پیام‌هایی که به غیر از زبان فارسی یا غیرمرتبط باشد منتشر نخواهد شد.