در رقابت تنگاتنگ غولهای هوش مصنوعی، بازیگر تازهنفس چینی یعنی DeepSeek با مدل جدیدش سر و صدای تازهای به پا کرده است. نسخه تازهنفس DeepSeek-R1-0528 با بهبودهایی چشمگیر در استدلال، ریاضی و برنامهنویسی حالا در ردیف رقبای جدی OpenAI و Google قرار گرفته و توجه جامعهی توسعهدهندگان و علاقهمندان به AI را به خود جلب کرده است.
بازتعریف رقابت در قلمرو هوش مصنوعی استدلالمحور
DeepSeek که پیشتر با مدل R1 خود در میان فعالان حوزه هوش مصنوعی شناخته شده بود، این بار با نسخهای بهروزرسانیشده و بهینهتر برگشته تا نشان دهد نهتنها میتواند به سطوح عملکردی o3 نزدیک شود، بلکه حتی در برخی شاخصها با آن برابری یا رقابت کند. این مدل متنباز، علاوه بر دستاوردهای فنی، از نظر رویکرد توسعه نیز پیامدهایی جدی برای آیندهی مدلهای زبان بزرگ در جهان دارد.
مدل جدید DeepSeek با نام کامل DeepSeek-R1-0528، بهعنوان نسخهای بهینهشده از مدل استدلالی پیشین R1، اکنون با پیشرفتهایی قابلتوجه در حوزههای ریاضی، علوم و برنامهنویسی معرفی شده است. شرکت چینی DeepSeek که پیشتر با عرضه نسخه اولیه مدل R1 توجه زیادی را به خود جلب کرده بود، این بار نیز با تکیه بر منابع محاسباتی گستردهتر و بهینهسازیهای الگوریتمی، توانسته کیفیت پاسخدهی و دقت مدل را در بنچمارکهای مختلف ارتقا دهد.
مطابق دادههای منتشرشده در پلتفرم Hugging Face، مدل DeepSeek-R1-0528 در آزمون ریاضی AIME 2025، عملکرد خود را از 70 به 87.5 درصد رسانده است. همچنین در بنچمارک تخصصی LiveCodeBench که عملکرد مدلها در زمینه برنامهنویسی را میسنجد، دقت این مدل از 63.5 به 73.3 درصد ارتقا یافته است. در آزمون بسیار دشوار Humanity’s Last Exam نیز جهشی از 8.5 به 17.7 درصد را تجربه کرده که بهخوبی نشاندهنده پیشرفت چشمگیر آن در استدلالهای پیچیده است.
در کنار نسخه اصلی، مدل فشردهتری نیز معرفی شده با نام DeepSeek-R1-0528-Qwen3-8B. این نسخه سبکتر که برای سختافزارهای محدودتر طراحی شده، با وجود ابعاد کوچکتر خود، عملکردی برابر با مدل بسیار بزرگتر Qwen3-235B-thinking ارائه میدهد. برای اجرای نسخه 8 میلیارد پارامتری این مدل در حالت FP16 به حداقل 16 گیگابایت حافظه گرافیکی نیاز است.
نکته قابلتوجه اینکه مانند نسخههای قبلی، این مدل نیز بهصورت متنباز و تحت مجوز MIT منتشر شده و بهراحتی در پروژههای تجاری قابل استفاده است. نسخه کامل آن در پلتفرم Hugging Face در دسترس است و مستندات آن نیز از طریق گیتهاب و API رسمی DeepSeek قابل دریافت است. همچنین کاربران API فعلی بهصورت خودکار به این نسخه ارتقا پیدا میکنند.
انتشار این نسخه جدید در شبکههای اجتماعی نیز بازتاب زیادی داشته است. کاربری با نام Haider در پلتفرم ایکس، عملکرد مدل را در زمینه برنامهنویسی «فوقالعاده» توصیف کرده و آن را تنها رقیب جدی مدل o3 دانسته است. کاربر دیگری با نام Lisan al Gaib نیز DeepSeek را رقیب مستقیم o3 و Google Gemini معرفی کرده است.
مدل DeepSeek-R1-0528 را باید نمادی از رقابت فنی فشرده در حوزهی هوش مصنوعی استدلالمحور دانست. چین با این مدل نهتنها سهم خود را در بازار LLMها تثبیت میکند، بلکه بهصورت ضمنی نشان میدهد که توسعه مدلهای قدرتمند استدلالی دیگر فقط در انحصار بازیگران آمریکایی نیست.
دقت چشمگیر مدل در آزمونهایی مانند AIME و Humanity’s Last Exam، بهویژه در حوزههایی که نیاز به درک مفهومی عمیق و زنجیرههای منطقی بلند دارد، یک پیام روشن دارد: DeepSeek حالا میتواند در کنار o3 و جمینای بهعنوان یک انتخاب جدی در توسعه اپلیکیشنهای پیشرفته مورد توجه قرار گیرد.
ارائه نسخه کوچکتر اما توانمند، راهکاری هوشمندانه برای گسترش نفوذ DeepSeek در بازار ابزارهای محلی و دستگاههای دارای منابع محدودتر است. بهویژه آنکه مدلهای مشابه اغلب به زیرساختهای سنگینتری نیاز دارند و این مدل با نیاز به ۱۶ گیگابایت حافظه گرافیکی میتواند بخش زیادی از توسعهدهندگان را پوشش دهد.
متنباز بودن و مجوز MIT نیز باعث میشود جامعهی متنباز با رغبت بیشتری سراغ این مدل برود؛ بهخصوص آنکه DeepSeek برخلاف برخی مدلهای محدودشده غربی، API باز و بیواسطهای ارائه میکند.
جدول مشخصات مدل DeepSeek-R1-0528:
ویژگی | مقدار |
---|---|
نام کامل مدل | DeepSeek-R1-0528 |
نوع مدل | مدل زبان بزرگ (LLM) متنباز |
حوزههای بهینهشده | ریاضیات، علوم، برنامهنویسی |
آزمون AIME 2025 | دقت: 87.5٪ (قبلی: 70٪) |
آزمون LiveCodeBench | دقت: 73.3٪ (قبلی: 63.5٪) |
آزمون Humanity’s Last Exam | دقت: 17.7٪ (قبلی: 8.5٪) |
نسخه فشرده | DeepSeek-R1-0528-Qwen3-8B |
نیاز حافظه برای اجرای نسخه کوچکتر | حداقل 16GB GPU (FP16) |
مجوز | MIT (قابل استفاده تجاری) |
در دسترس در | Hugging Face، GitHub، API رسمی DeepSeek |
نتیجهگیری
مدل DeepSeek-R1-0528 یک گام جسورانه و پیشرفته از سوی چین در بازار مدلهای زبان بزرگ محسوب میشود. این مدل با عملکردی چشمگیر در حوزههای کلیدی استدلالی، اکنون خود را در کنار مدلهایی چون o3 و Gemini 2.5 Pro قرار داده و حتی در برخی بنچمارکها با آنها رقابت میکند.
استراتژی هوشمندانه DeepSeek در عرضه دو نسخه متفاوت از مدل – برای سختافزارهای قدرتمند و ضعیفتر – در کنار سیاست متنباز بودن و مجوز MIT، جایگاه آن را بهعنوان یک بازیگر مهم در آینده مدلهای استدلالی تثبیت کرده است.
اگر این روند توسعه ادامه پیدا کند، دیپسیک میتواند بهزودی از یک بازیگر شرقی تبدیل به یکی از مهرههای مرکزی بازی جهانی LLMها شود.