گزارش تحلیلی: شبکه هوش مصنوعی چینی GoLaxy و تهدیدات ناشی از پرسوناهای مصنوعی
بر اساس اسناد لورفته و تحلیل محققان مؤسسه امنیت ملی وندربیلت
یک گزارش جدید از اسناد لورفته که محققان مؤسسه امنیت ملی وندربیلت بررسی کردهاند، نشان میدهد شرکت چینی GoLaxy با تکیه بر مدلهای مولد هوش مصنوعی شبکهای از پروفایلها و پرسونای مصنوعی ساخته که توان تولید محتواهایی «واقعنما» و سازگار با مخاطب را دارند. این ابزارها طوری طراحی شدهاند که محتوای خود را در زمان واقعی تطبیق دهند و از شناسایی دشوار فرار کنند. عملیاتی که هدفگذاریهایی در تایوان، هنگکنگ و جامعه سیاسی آمریکا داشته است.
کلیت تهدید این است که ابزارهای مولد هوش مصنوعی هزینه ورود را بهشدت کاهش دادهاند و کارزارهای نفوذ خارجی حالا میتوانند با سرعت، حجم و کیفیتی بیسابقه عمل کنند. همزمان با کاهش دفاتر و نیروی فدرال مقابله با اطلاعات نادرست در آمریکا. این ترکیب باعث شده شناسایی محتوای مخرب برای کاربران عادی تقریباً ناممکن شود.
چه رخ داده؟
محققان وندربیلت، براساس اسنادی که بررسی کردهاند، میگویند شرکت GoLaxy از مدلهای مولد و ابزارهای پردازش داده استفاده کرده تا پروفایلهای هدف و «پرسونای» مصنوعی ایجاد کند. این پروفایلها میتوانند پیامها را بر اساس ترجیحات و ویژگیهای جمعیتی مخاطبان تغییر دهند و خود را طبیعی نشان دهند.
گزارشها همچنین ادعا میکنند که مجموعهای از این حسابها در رقابتهای سیاسی و بحثهای حساس مانند انتخابات 2024 تایوان و مخالفتها با قوانین هنگکنگ فعال بودهاند. خود شرکت GoLaxy این ادعاها را رد کرده، اما اسناد داخلی مورد بررسی محققان، الگوهای گستردهای از هدفگیری و تولید محتوا را نشان میدهند.
GoLaxy و ابزارهای مورد استفاده
مطابق اسناد، GoLaxy از مدلهای متنبنیاد و ابزارهایی مانند نسخههایی از مدلهای reasoning متنباز (مثلاً DeepSeek) و پلتفرمهای استخراج داده برای جمعآوری و تحلیل پروفایلهای اجتماعی بهره بردهاست. هدف، ساختن محتوایی بود که «احساسی» و متناسب با هر گروه مخاطب باشد.
این ترکیب استخراج داده + تولید متن باعث میشود تا عملیات نفوذ:
- سریعتر اجرا شود
- محتوا طبیعیتر بهنظر برسد
- در مقیاس بزرگتری هدفگذاری شود
سازوکار عملیاتی: از استخراج تا توزیع
ابتدا دادههای عمومی از شبکههای اجتماعی استخراج میشوند: علایق، ارتباطات و محتوای بهاشتراکگذاشتهشده. سپس مدلهای مولد براساس این دادهها پرسونای مصنوعی میسازند که قادر است پیامها را شخصیسازی کند. در نهایت، محتوا از طریق شبکهای از حسابها و حسابهای میمیمشده منتشر میشود تا در تلقی عمومی «ارگانیک» جلوه کند.
این چرخه خودآموز میتواند پیامها را در لحظه تنظیم کند. وقتی یک روایت کارایی لازم را ندارد، نسخههای جدید تولید و دوباره هدفگیری انجام میشود. بهعبارتدیگر، یادگیری و تطبیق بلادرنگ علت اصلی دشواری شناسایی است.
میزان تهدید و پیامدها
اسناد نشان میدهند که GoLaxy برای حداقل 117 عضو کنگره و بیش از 2,000 شخصیت سیاسی و فکری آمریکایی پروفایل ساخته است؛ عددی که اگر تأیید شود، گستره نفوذ بالقوه را آشکار میکند. چنین بانک دادهای امکان هدفگیری دقیق پیامها به گروههای مؤثر را فراهم میکند.
این نوع عملیات چند پیامد فوری دارد: تضعیف اعتماد عمومی به اطلاعرسانی، تشدید قطبیشدن سیاسی، و دشوار شدن کار نهادهای خبری و پلتفرمها در تمییز محتوای واقعی از مصنوعی.
واکنشها و خلأهای سیاستی
رهبران امنیت ملی و محققان، از جمله ژنرال Paul Nakasone، در نشستهایی مانند DEF CON نسبت به شتاب عملیات تولیدشده توسط هوش مصنوعی هشدار دادهاند و گفتهاند که سرعت و مقیاس امروز بیسابقه است. همزمان، کاهش دفاتر و ظرفیتهای فدرال که پیشتر بر مقابله با اطلاعات نادرست متمرکز بودند، خلأیی ایجاد کرده که بازیگران خارجی از آن بهره میبرند.
متخصصان میگویند پاسخ مؤثر نیازمند ترکیب سیاستگذاری، بازسازی تیمهای اعتماد و امنیت در پلتفرمها، و نوآوریهای خصوصی در حوزه تشخیص محتوای AI است.
ابزارهای پاسخدهی خصوصی، دولتی یا ترکیبی؟
تحلیلگران تأکید میکنند که بخش خصوصی باید نقش محوری در توسعه ابزارهای مقابلهای داشته باشد؛ چراکه شرکتهای فناوری دسترسی و منابع لازم برای تشخیص الگوهای مولد و رفتارهای شبکهای را دارند. در عین حال، فقدان هماهنگی مؤثر میان دولت و بخش خصوصی و کاهش بودجه/دفاتر دولتی، کار را پیچیدهتر میکند.
پیشنهاد شده که مقررات اروپایی میتواند پلتفرمها را وادار به تقویت تیمهای trust & safety کند و این فشار خارجی ممکن است محرک بازسازی ظرفیتهای حفاظتی در پلتفرمهای بزرگ شود.
ویژگیهای کلیدیِ گزارش
تحلیل کارشناسی و پیشبینیها
- روند فعلی نشان میدهد که ورود هوش مصنوعی به کارزارهای نفوذی، «هزینه تولید محتوا» و «زمان لازم برای هدفگیری دقیق» را بهصورت نمایی کاهش داده است. نتیجه منطقی این است که طی 1–2 سال آینده بازیگران دولتی و خصوصی بیشتری خدمات تولید محتوا و هدفگیری را عرضه خواهند کرد، که دسترسی به عملیات نفوذ را دمدستتر میکند.
- اگر پلتفرمها و دولتها سریعاً ظرفیت شناسایی و تبادل اطلاعات را تقویت نکنند، موجی از روایتهای دستکاریشده میتواند در دورههای انتخابات ملی/بومی تاثیرگذار باشد؛ اما فشار مقرراتی در اروپا و ابتکارهای بخش خصوصی ممکن است ظرف 2–3 سال قابلیتی برای کاهشِ اثرگذاری این عملیات فراهم کنند.
- چشمانداز فناوری: مدلهای مولد بهسرعت به شناساییِ رفتارهای «اصلی» شبکه عادت میکنند؛ بنابراین مبارزه موفق مستلزم توسعه مدلهای تشخیصی همزمان (real-time detection) و همکاریِ بینالمللی در تبادل الگوها و تهدیدات است. ازسویدیگر، بازیگران مخرب نیز بهصورت متقابل بهسرعت تطبیق خواهند یافت. بنابراین رقابت تشخیص/تطبیق ادامهدار خواهد بود.
- پیام برای رسانهها و مخاطبان: اعتماد سنتی به محتوای «شکلگرفته در پلتفرم» نباید بدون معیارهای سنجش اعتبار پذیرفته شود؛ خبرگزاریها باید لایههای اعتبارسنجی بیشتری را وارد زنجیره انتشار کنند تا روایتهای مصنوعی را مهار کنند.
جمعبندی
اسناد مورد بررسی نشان میدهند که ترکیب استخراج داده اجتماعی و مدلهای مولد هوش مصنوعی به بازیگران خارجی امکان میدهد تا محتوایی بسازند که از نظر زبانی، سبکی و زمانی «واقعنما» بوده و بهسرعت برای مخاطبان هدف بهینه شود؛ نمونهای که در اسناد مرتبط با شرکت GoLaxy به تایوان، هنگکنگ و ایالات متحده ردیابی شده و شامل پروفایلهایی برای حداقل 117 عضو کنگره و بیش از 2,000 شخصیت آمریکایی است. پاسخگویی مؤثر نیازمند ترکیبی از نوآوری خصوصی، بازسازی ظرفیتهای دولتی و فشار مقرراتی بینالمللی است تا این موج جدید اطلاعات مصنوعی را کنترل کنیم.