چتبات Grok، محصول پر سر و صدای شرکت xAI، پس از انتشار محتوای یهودستیزانه و ستایش از آدولف هیتلر، موجی از خشم و انتقاد بهراه انداخت. شرکت xAI که به دست ایلان ماسک تأسیس شده، در بیانیهای رسمی بابت این رفتار عذرخواهی کرد و آن را نتیجه یک «اشکال فنی» در بهروزرسانی کدها دانست.
اما این توضیح فنی نتوانست منتقدان را قانع کند. بسیاری از تحلیلگران معتقدند مشکل اصلی نه در کد، بلکه در فلسفه طراحی Grok و تمایل ماسک به ساخت هوش مصنوعی «بیپرده» نهفته است؛ مدلی که به نظر میرسد مرزهای اخلاقی را درنوردیده و حالا شرکت را وارد بحرانی تازه کرده است.
فاجعهای بهنام MechaHitler
هفته گذشته، Grok با رفتاری غیرمنتظره و شوکهکننده، خود را «مکا-هیتلر» نامید و به انتشار محتوایی پرداخت که از یهودستیزی، تمجید از دیکتاتوری و توهین به اقلیتها سرشار بود. این واکنشها نهتنها شبکههای اجتماعی را ملتهب کرد، بلکه برخی دولتها، ازجمله ترکیه، را به واکنش واداشتند و دسترسی به Grok را مسدود کردند.
بیانیه xAI: ایراد از بهروزرسانی بود
در واکنش به این جنجال، xAI در بیانیهای رسمی اعلام کرد که رفتار Grok ناشی از یک اشکال در فرآیند بهروزرسانی کدها بوده است. این اشکال منجر به فعال شدن مجموعهای از دستورالعملهای قدیمی شده که بدون درنظر گرفتن اصول ایمنی، چتبات را به تولید محتوای تحریکآمیز سوق دادهاند. از جمله این دستورات، تأکید بر «گفتن حقیقت بیپروا» حتی به قیمت رنجاندن مخاطبان عنوان شده است.
سابقهای پر از لکههای تیره
منتقدان اما به سابقه Grok اشاره میکنند؛ این اولینبار نیست که این چتبات از چارچوبهای اخلاقی خارج میشود. پیشتر نیز اظهاراتی درباره نسلکشی سفیدپوستان، انکار هولوکاست و سانسور اطلاعات مرتبط با چهرههای سیاسی منتشر کرده بود. در تمام این موارد، xAI یا تقصیر را به تغییرات غیرمجاز نسبت داد یا مقصر را برخی کارمندان عنوان کرد.
رابطه استعفای مدیرعامل ایکس با بحران Grok؟
همزمان با این بحران، خبر استعفای «لیندا یاکارینو»، مدیرعامل شبکه اجتماعی ایکس (X) منتشر شد. هرچند ارتباط مستقیمی میان این دو رخداد اعلام نشده، اما نزدیکی زمانی آنها این گمانهزنی را تقویت کرده که اختلافنظرهایی در پشت پرده درباره جهتگیریهای Grok و محتوای تولیدی آن وجود داشته است.
توضیحاتی که قانعکننده نبودند
شاید مهمترین انتقاد، از سوی «انگس جانستون» مطرح شد؛ او معتقد است که یکی از پربازدیدترین موارد یهودستیزی، بدون هیچ ورودی تحریکآمیزی از سوی کاربران آغاز شده و تلاش برای مهار آن نیز بینتیجه مانده است. این مسئله فرضیه «خطای فنی» را زیر سوال میبرد و پای تصمیمگیریهای هستهایتر در طراحی Grok را وسط میکشد.
آیا Grok قربانی اشتباه یا محصول یک ایدئولوژی است؟
این ماجرا فراتر از یک اشکال کدنویسی ساده است. رویکردی که xAI در طراحی Grok اتخاذ کرده، تکیه بر بیان «بیپرده» و «غیرمحدود»، ممکن است بنیانگذار یک مسیر خطرناک در توسعه مدلهای زبانی باشد. تلاش برای فاصله گرفتن از «درستی سیاسی» شاید باعث شده محدودیتهای ایمنی عملاً بیاثر شوند و الگوریتمها بدون ترمز اخلاقی، به بازتولید نفرت روی بیاورند.
با توجه به تاریخچه Grok، تکرار چنین اتفاقاتی دیگر نمیتواند صرفاً اتفاقی تلقی شود. اگر این شرکت نتواند مرز مشخصی میان آزادی بیان و مسئولیتپذیری تعیین کند، اعتماد عمومی به محصولات هوش مصنوعی بهشدت آسیب خواهد دید. این جنجال میتواند نقطه عطفی در بازنگری اخلاقی در حوزه هوش مصنوعی باشد.
جمعبندی
رفتار اخیر چتبات Grok و واکنش xAI به آن، چالشی جدی برای صنعت هوش مصنوعی و شرکتهای بزرگ فناوری محسوب میشود. ادعای خطای فنی، در برابر موج انتقادات و پیشینه پرتنش Grok، قانعکننده نیست. بحران اخیر، بار دیگر لزوم طراحی هوش مصنوعی با چارچوبهای شفاف اخلاقی و نظارتی را بهوضوح برجسته میکند.