حادثه تیراندازی در ساحل باندی استرالیا هنوز در صدر اخبار قرار دارد، اما اینبار نه فقط بهدلیل ابعاد انسانی و امنیتی، بلکه بهخاطر نقشی که هوش مصنوعی در بازتولید روایتهای نادرست آن ایفا کرده است. چتبات گراک، محصول xAI، بهجای شفافسازی، با انتشار اطلاعات غلط و پاسخهای نامرتبط، موجی از تردید و نگرانی ایجاد کرده است.
آنچه این ماجرا را حساستر میکند، جایگاه روبهرشد چتباتها بهعنوان منبع خبری برای کاربران است. وقتی چنین ابزاری در تشخیص واقعیت دچار خطای جدی میشود، مرز میان خبر معتبر و اطلاعات جعلی بیش از هر زمان دیگری کمرنگ خواهد شد.
در جریان تیراندازی ساحل باندی، گراک بارها یک قهرمان واقعی حادثه را اشتباه شناسایی کرد و حتی ویدیوهای مرتبط را به رویدادهایی کاملا بیربط نسبت داد. این خطاها محدود به یک پاسخ نبود و در موضوعات دیگر نیز تکرار شد.
رفتار گراک نشان میدهد که مشکل فقط یک اشتباه دادهای نیست، بلکه به ضعف عمیق در درک پرسش، زمینه خبر و تشخیص اعتبار منابع بازمیگردد؛ ضعفی که برای یک چتبات خبری، زنگ خطر جدی محسوب میشود.
اشتباهات گراک در بازنمایی حادثه تیراندازی ساحل باندی استرالیا

گراک در پاسخ به پرسشهای کاربران درباره تیراندازی ساحل باندی، احمد الاحمد، مرد 43 سالهای که یکی از مهاجمان را خلع سلاح کرد، بهاشتباه معرفی کرد. این چتبات حتی پا را فراتر گذاشت و ادعا کرد ویدیوی منتشرشده از این اقدام شجاعانه، مربوط به رویدادهای قدیمی و نامرتبط است.
نسبت دادن این ویدیو به صحنههایی مانند بالا رفتن فردی از درخت یا حوادث دیگر، نشان میدهد که گراک در تشخیص محتوای بصری و تطبیق آن با متن خبری دچار سردرگمی جدی است. چنین خطایی در یک حادثه حساس، تبعات رسانهای گستردهای دارد.
نقش محتوای جعلی و سایتهای خبری ساختگی در گمراهی هوش مصنوعی
پس از این حادثه، یک وبسایت خبری جعلی که بهنظر میرسد با هوش مصنوعی تولید شده بود، وارد میدان شد. این سایت با معرفی یک متخصص خیالی فناوری اطلاعات بهنام «ادوارد کربتری»، روایت کاملاً نادرستی از خلع سلاح مهاجم ارائه داد.
گراک بدون بررسی اعتبار منبع، این روایت جعلی را برداشت و در شبکه اجتماعی ایکس بازنشر کرد. این اتفاق بهوضوح نشان میدهد که نبود فیلترهای اعتبارسنجی منابع، چگونه میتواند یک چتبات را به ابزار انتشار اخبار جعلی تبدیل کند.
مشکل گراک در درک پرسشها و ازهمگسیختگی پاسخهای متنی
خطاهای گراک تنها به این حادثه محدود نماند. این چتبات در پاسخ به سؤالی درباره مشکلات مالی شرکت اوراکل، ناگهان خلاصهای از تیراندازی ساحل باندی ارائه داد؛ پاسخی که هیچ ارتباطی با پرسش نداشت.
در نمونهای دیگر، هنگام سؤال درباره صحت گزارشی از عملیات پلیس بریتانیا، گراک ابتدا تاریخ روز را اعلام کرد و سپس آمار نظرسنجیهای مربوط به کامالا هریس را مطرح کرد. این ازهمگسیختگی نشان میدهد که موتور درک زمینهای گراک دچار اختلال ساختاری است.
چرا این خطاها برای اعتبار چتباتهای خبری خطرناک است؟
کاربران بهتدریج چتباتها را جایگزین جستوجوی سنتی کردهاند و از آنها انتظار پاسخهای دقیق و قابل اتکا دارند. وقتی ابزاری مانند گراک در تشخیص سادهترین زمینهها ناکام میماند، اعتماد عمومی به کل اکوسیستم هوش مصنوعی زیر سؤال میرود.
در حوزه خبر، یک اشتباه میتواند به تحریف واقعیت، تخریب اعتبار افراد و حتی تشدید تنشهای اجتماعی منجر شود. به همین دلیل، خطاهای گراک فقط یک نقص فنی نیست، بلکه یک بحران اعتماد محسوب میشود.
پیامدهای رسانهای و اجتماعی بازنشر اطلاعات غلط توسط هوش مصنوعی
بازنشر اطلاعات نادرست درباره احمد الاحمد، تلاش برخی جریانها برای کماهمیت جلوه دادن شجاعت او را تقویت کرد. وقتی یک چتبات پرکاربر چنین روایتهایی را تأیید میکند، اثر آن چند برابر میشود.
این مسئله نشان میدهد که هوش مصنوعی، اگر بدون نظارت و چارچوب اخلاقی وارد جریان خبر شود، میتواند ناخواسته در خدمت روایتسازیهای مخرب قرار بگیرد؛ حتی اگر نیت اولیه آن اطلاعرسانی باشد.
ویژگیها و خطاهای کلیدی گراک در این ماجرا
|
ویژگی یا رفتار گراک |
توضیح خطا یا پیامد |
| تشخیص نادرست هویت افراد |
معرفی اشتباه احمد الاحمد و افراد خیالی |
|
تحلیل غلط محتوای ویدیویی |
نسبت دادن ویدیو به رویدادهای بیربط |
| استفاده از منابع جعلی |
بازنشر محتوای سایت خبری ساختگی |
|
درک ضعیف پرسش کاربر |
پاسخهای نامرتبط به سؤالات مشخص |
| فقدان انسجام متنی |
پرش ناگهانی میان موضوعات نامربوط |
ماجرای گراک یک نمونه هشداردهنده برای کل صنعت هوش مصنوعی است. مدلهای زبانی بزرگ، بدون سیستمهای قوی راستیآزمایی و درک زمینه، نمیتوانند نقش منبع خبری مستقل را ایفا کنند. انتظار میرود شرکتها در ماههای آینده سرمایهگذاری بیشتری روی فیلتر منابع، تشخیص محتوای جعلی و بهبود فهم زمینهای انجام دهند.
در غیر این صورت، فاصله میان سرعت تولید محتوا و دقت آن بیشتر میشود و کاربران آگاه، دوباره به منابع سنتی یا ترکیبی از انسان و ماشین روی خواهند آورد. آینده چتباتهای خبری، به توانایی آنها در بازسازی اعتماد از دسترفته وابسته است.
جمعبندی
خطاهای گراک پس از تیراندازی ساحل باندی نشان داد که هوش مصنوعی، با وجود توان پردازشی بالا، همچنان درک عمیقی از واقعیت ندارد. بازنشر اطلاعات جعلی، پاسخهای نامرتبط و تحلیلهای اشتباه، زنگ خطری جدی برای استفاده خبری از چتباتهاست. اگر این ابزارها قرار است نقش مؤثری در آینده رسانه داشته باشند، دقت، اعتبار و مسئولیتپذیری باید در اولویت توسعه آنها قرار گیرد.

