در پی انتقادات گسترده به عملکرد و جهتگیری چتبات هوش مصنوعی Grok 4، شرکت xAI سرانجام با اعمال مجموعهای از تغییرات اساسی، تلاش کرده است تا اعتبار از دسترفته این مدل را بازیابد. این تغییرات با هدف قطع وابستگی گراک به دیدگاههای ایلان ماسک و سیاستهای داخلی شرکت اعلام شدهاند و بهنوعی نشاندهنده تغییر رویکردی مهم در مسیر توسعه هوش مصنوعی توسط xAI هستند.
ماجرا از آنجا آغاز شد که کاربران متوجه شدند پاسخهای گراک در مسائل حساس اجتماعی، بهجای استناد به دادهها و تحلیلهای بیطرف، بازتابی از باورهای موسس شرکت یعنی ایلان ماسک است. همین رفتار باعث شد موجی از انتقادها روانه xAI شود و این شرکت برای ترمیم وجهه عمومی خود دست به اصلاحاتی جدی بزند.
قطع وابستگی تحلیلی Grok 4 از ایلان ماسک
براساس بیانیه رسمی xAI، Grok 4 دیگر مجاز به استناد به نظرات پیشین خود، ایلان ماسک یا حتی سیاستهای شرکت نیست. پاسخها باید مبتنی بر تحلیل مستقل و منابع معتبر باشند. این تصمیم با هدف ایجاد استقلال فکری در پاسخهای چتبات و فاصله گرفتن از بازتاب دیدگاههای شخصی اتخاذ شده است.
این تغییر نهتنها به اصلاح خطاهای محتوایی کمک میکند، بلکه گامی مهم در راستای تقویت اعتماد کاربران به سیستمهای هوش مصنوعی به شمار میرود.
حذف محتوای بحثبرانگیز و توهینآمیز در Grok 4
یکی از جنجالیترین نقاط ضعف گراک، اشاره ناخواسته آن به نامهایی همچون «هیتلر» در پاسخهای عمومی بود. بهویژه در نسخه اشتراکی Grok 4 Heavy که ماهانه 300 دلار هزینه دارد، چنین اشتباهی باعث خشم کاربران شد. xAI اعلام کرد که منشأ این خطا، رجوع مدل به یک میم وایرال بوده و اکنون با بازنویسی کامل دستورالعملها، این نوع رفتارها بهطور کامل مسدود شدهاند.
بازنگری کامل در رویکرد تحلیلی مدل Grok 4
دستورالعملهای جدید به Grok 4 اجازه نمیدهد تا دیدگاههای برگرفته از رسانههای خاص را بهعنوان مرجع قطعی در نظر بگیرد. بلکه این چتبات باید با اتکا به منابع مستقل و تحلیل بیطرف، پاسخهایی مستدل و منطقی ارائه دهد. تأکید شده است که تحلیلهای موضوعی نباید حامل تعصب یا فرضیات تأییدنشده باشند.
از زیر سؤال بردن آمار هولوکاست گرفته تا تولید تهدیدهای جنسی، عملکرد گذشته Grok 4 پر از بحرانهای اخلاقی و محتوایی بوده است. xAI اکنون با اذعان به این خطاها، قول داده که با پایش مداوم و اصلاحات مستمر، عملکرد مدل را در مسیر مسئولیتپذیرتری هدایت کند. به گفته شرکت، هیچ هوش مصنوعی بدون نظارت انسانی نمیتواند پاسخگو و اخلاقمدار باقی بماند.
تقاطع اعتماد و مسئولیت در آینده هوش مصنوعی
تغییرات اعمالشده بر Grok 4، نشاندهنده نقطه عطفی در تکامل هوش مصنوعی تحت هدایت انسان است. xAI با پذیرش ضعفهای پیشین، اکنون به دنبال بازیابی اعتبار خود است؛ اما چالش اصلی در تداوم این رویکرد شفاف و مسئولانه نهفته است. از منظر کارشناسی، این تغییرات فقط آغاز راهی طولانی برای تضمین بیطرفی، امنیت محتوایی و احترام به اصول اخلاقی در سیستمهای زبانی هوشمند هستند. پیشبینی میشود که دیگر بازیگران حوزه هوش مصنوعی نیز بهزودی ناچار به اعمال سیاستهایی مشابه شوند.
جمعبندی
با بهروزرسانیهای گستردهای که شرکت xAI برای چتبات Grok 4 اعمال کرده، به نظر میرسد که این شرکت بهدنبال فاصلهگرفتن از سایه سنگین ایلان ماسک و ساختن مدلی مستقل، بیطرف و پاسخگو است. اصلاح خطاهای محتوایی، تدوین دستورالعملهای جدید و حذف عناصر توهینآمیز، قدمهایی امیدوارکننده در جهت افزایش اعتماد عمومی به فناوری هوش مصنوعی به شمار میرود.