یکشنبه, ۲۳ فروردین , ۱۴۰۵ Sunday, 12 April , 2026 ساعت تعداد نوشته های امروز : 19×

تیتر اخبار آکادمی

برنامه مدرسه تلویزیونی ایران برای 23 فروردین اعلام شد تداوم‌ اسکان اضطراری فرهنگیان تا پایان فروردین انتشار مجموعه صوتی «از ایرانمان دفاع می‌کنیم» برای دانش‌آموزان الگوی جدید تعیین شهریه مدارس غیردولتی نهایی می‌شود سمپاد: هنوز تصمیمی درباره زمان ثبت‌نام آزمون‌ها گرفته نشده است آیه سال 1405 اتحادیه دانش‌آموزان توسط نماینده رهبری اعلام شد جدول پخش مدرسه تلویزیونی دانش‌آموزان تا 27 فروردین سرانه دانش‌آموزی تا سال 1405 به بیش از 16 هزار میلیارد تومان می‌رسد اهدای بسته فرهنگی کانون پرورش فکری به کودکان آسیب‌دیده از جنگ بازدید وزیر آموزش‌وپرورش از ساختمان آسیب‌دیده شهید باهنر ابلاغ جداول درسی فنی‌وحرفه‌ای و کاردانش برای سال تحصیلی 1406-1405 دانش فضایی ایران پابرجاست/ ضرورت رعایت پدافند در احداث مکان‌های جدید دانش فضایی ایران پابرجاست/ ضرورت رعایت پدافند در احداث مکان‌های جدید برنامه درسی مدرسه تلویزیونی ایران برای شنبه 23 فروردین 1405 ملت ایران پرچمدار دفاع از حق و حقیقت در جهان است کاهش سرفاصله حرکت قطارهای مترو تهران از 22فروردین اجرای پویش فرهنگی به یاد دانش آموزان شهید میناب در تایلند مدارس تهران تا پایان فروردین غیرحضوری شد/فعالیت 50درصدی کارکنان ادارات چالش شهریه مدارس غیرانتفاعی در سال نیمه تعطیل/آموزش آنلاین،شهریه کامل؟ اعلام نحوه برگزاری ارزشیابی پایان سال تحصیلی 1405-1404 برنامه درسی مدرسه‌ تلویزیونی‌ ایران برای چهارشنبه تبیین فرهنگ ایثار و شهادت برای نسل دانش‌آموز ضروری است افزایش نیاز به خدمات روانی برای دانش‌آموزان مناطق آسیب‌دیده زمان ثبت‌نام آزمون سراسری 1405 اعلام شد اجرای طرح ملی آموزش هوش مصنوعی برای دانش‌آموزان و معلمان ٣١٢ دانش آموز و معلم تا روز سی‌ونهم جنگ شهید شدند گزارش سمپاد از فعالیت‌های دانش‌آموزان در ایام «جنگ رمضان» سرود صبحگاهی مدارس با شعری از رهبر شهید انقلاب اجرا می‌شود مستندسازی جنایت علیه دانش‌آموزان برای پیگیری حقوقی جهانی سوگواره 5 هزار دانش‌آموز در حرم رضوی به یاد شهدای میناب برنامه آموزش‌وپرورش در صورت لغو کنکور و امتحانات نهایی تمرکز آموزش‌وپرورش بر ارتقای تاب‌آوری و نشاط دانش‌آموزان بازنمایی حادثه مدرسه شجره طیبه میناب در کتاب‌های درسی شهادت 245 دانش آموز تا روز 37 جنگ/ تخریب 51 مدرسه الزام مدارس غیردولتی به اجرای کامل تعهدات آموزشی پخش برنامه‌های مدرسه تلویزیونی ایران در 16 فروردین از شبکه آموزش اعلام 14 سیاست راهبردی سازمان نوسازی مدارس برای سال 1405 راهنمای جامع 15 گانه برای برگزاری کلاس‌های غیرحضوری موفق تداوم طرح همیار سمپاد در ایام مقاومت ملی با محور عدالت آموزشی ادامه آموزش غیرحضوری با مدرسه تلویزیونی و درسنامه‌ها مدرسه‌ای که باید به یادمان تبدیل شود؛ چرا میناب نباید فراموش شود؟ اعلام برنامه درسی مدرسه تلویزیونی ایران در 15 فروردین بزرگداشت چهلم شهدای دانش‌آموز میناب در مدارس سراسر کشور مشکلى در شبکه شاد وجود ندارد زمان‌بندی جدید حضور دانش‌آموزان در برنامه شاد اعلام شد چگونه انهدام میدان گازی قطر، قلب صنعت فضایی جهان را از تپش انداخت؟ ستاد حقوق بشر خواستار پیگیری بین‌المللی فاجعه مدرسه میناب شد بیانیه سازمان سنجش در محکومیت حمله به دانشگاه‌ها و مراکز علمی امتحانات هماهنگ کشوری لغو شد/ برنامه ریزی هر استان به صورت مستقل شهادت 138 دانش‌آموز مدارس غیردولتی/ آسیب به 146مدرسه

پاسخ علی‌بابا به DeepSeek-R1؛ مدل QwQ-32B با 32 میلیارد پارامتر معرفی شد
1404-10-18
شناسه : 11863
بازدید 60
16

با وجود اندازه کوچک‌تر خود، این مدل به سطح عملکرد مدل‌های بزرگی مثل DeepSeek-R1 نزدیک شده و تنها به 24 گیگابایت حافظه GPU نیاز دارد.

ارسال توسط :
پ
پ

شرکت چینی علی‌بابا از جدیدترین مدل زبانی متن‌باز خود با نام QwQ-32B رونمایی کرد؛ مدلی با 32 میلیارد پارامتر که با هدف بهبود توانایی حل مسائل پیچیده و استدلال منطقی توسعه یافته است. این مدل با بهره‌گیری از یادگیری تقویتی (RL) و تکنیک‌های پیشرفته عملکرد قابل‌توجهی در حوزه‌هایی مانند ریاضیات، کدنویسی و تحلیل مسائل پیچیده ارائه می‌دهد.

طبق گزارش‌های منتشر شده، QwQ-32B نسخه پیشرفته‌ای از QwQ است که علی‌بابا در نوامبر 2024 آن را با هدف رقابت با مدل استدلالی o1-preview از OpenAI عرضه کرده بود. در همان ابتدا، این مدل به‌دلیل عملکرد مطلوب در آزمون‌های ریاضی (AIME, MATH) و استدلال علمی (GPQA) توجه زیادی جلب کرد؛ هرچند در زمینه برنامه‌نویسی از رقبایی مانند LiveCodeBench عقب ماند.

اکنون QwQ-32B با تکیه بر ساختار چندمرحله‌ای یادگیری تقویتی تلاش کرده این ضعف‌ها را برطرف کند. طبق نتایج اولیه، این مدل توانسته با وجود اندازه کوچک‌تر خود، به سطح عملکرد مدل‌های بزرگی مثل DeepSeek-R1 با 671 میلیارد پارامتر نزدیک شود، درحالی‌که تنها به 24 گیگابایت حافظه GPU نیاز دارد؛ این درحالی است که DeepSeek-R1 به بیش از 1500 گیگابایت VRAM نیاز دارد.

پاسخ علی‌بابا به DeepSeek-R1؛ مدل QwQ-32B با 32 میلیارد پارامتر معرفی شد
پاسخ علی‌بابا به DeepSeek-R1؛ مدل QwQ-32B با 32 میلیارد پارامتر معرفی شد

مشخصات فنی و معماری مدل هوش مصنوعی QwQ-32B

مدل QwQ-32B دارای ویژگی‌های زیر است:

  • 64 لایه ترنسفورمر با تکنیک‌هایی مانند RoPE و SwiGLU
  • پشتیبانی از 131,072 توکن برای پردازش متون طولانی
  • معماری Generalized Query Attention (GQA)
  • آموزش سه‌مرحله‌ای شامل پیش‌تمرین، تنظیم با نظارت و یادگیری تقویتی

همچنین یادگیری تقویتی QwQ-32B در دو مرحله اجرا شده است؛ ابتدا با تمرکز بر دقت در ریاضیات و برنامه‌نویسی و سپس بهبود توانایی‌های عمومی مثل درک دستورات و هماهنگی با رفتار انسانی.

این مدل به‌دلیل متن‌باز بودن و بهره‌مندی از استدلال پیشرفته می‌تواند گزینه مناسبی برای شرکت‌هایی باشد که به دنبال پیاده‌سازی تحلیل داده خودکار، توسعه نرم‌افزار، مدل‌سازی مالی یا اتوماسیون خدمات مشتری هستند. همچنین هرچند برخی کاربران غیرچینی ممکن است نگرانی‌هایی درباره امنیت و سوگیری مدل‌های وابسته به علی‌بابا داشته باشند، اما عرضه این مدل در Hugging Face برای دانلود و استفاده آفلاین تا حد زیادی این نگرانی‌ها را کاهش می‌دهد.

مدل QwQ-32B تحت لایسنس Apache 2.0 به‌صورت متن‌باز منتشر شده و از طریق پلتفرم‌های Hugging Face و ModelScope در دسترس قرار دارد. این موضوع باعث می‌شود شرکت‌ها و توسعه‌دهندگان بتوانند بدون محدودیت‌های مدل‌های تجاری از آن برای تولید محصولات، خدمات و حتی پروژه‌های پولی استفاده کنند.

این مدل همچنین از طریق سرویس Qwen Chat نیز قابل استفاده است. تیم Qwen قصد دارد با ادامه توسعه این مدل، مسیر حرکت به‌سوی هوش عمومی مصنوعی (AGI) را هموار کند.

ثبت دیدگاه علمی و آموزشی

  • دیدگاه‌های ارسال شده توسط شما، پس از تایید توسط تیم مدیریت در وب منتشر خواهد شد.
  • پیام‌هایی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
  • پیام‌هایی که به غیر از زبان فارسی یا غیرمرتبط باشد منتشر نخواهد شد.