بات‌های هوش مصنوعی: کابوس جدید برای کسب‌وکارهای کوچک

در دسته مطالب: مسائل اخلاقی و اجتماعی
دی 22, 1403
بات‌های هوش مصنوعی: کابوس جدید برای کسب‌وکارهای کوچک
هجوم بی‌رحمانه یک ربات از OpenAI وب‌سایت یک شرکت کوچک را نابود کرد و هزینه‌های سنگین سرور را به جا گذاشت. آیا کسب‌وکارهای کوچک باید خود را برای جنگی بی‌پایان با بات‌های هوش مصنوعی آماده کنند؟

شنبه‌ای تلخ برای اولکساندر تومچوک، مدیرعامل شرکت کوچک «تریپل‌گنگرز»، آغاز شد؛ زمانی که وب‌سایت تجارت الکترونیکی این شرکت به ناگهان از دسترس خارج شد. ابتدا همه‌چیز شبیه به یک حمله‌ی توزیع‌شده‌ی محروم‌سازی از سرویس (DDoS) به نظر می‌رسید، اما حقیقت، پرده از داستانی هولناک‌تر برداشت: یک بات متعلق به OpenAI در حال تلاش برای استخراج انبوهی از داده‌های سایت بود.

تومچوک در گفت‌وگو با تک‌کرانچ توضیح داد که این وب‌سایت بیش از ۶۵ هزار محصول را شامل می‌شود که هرکدام دارای چندین تصویر و توضیحات دقیق هستند. ربات OpenAI با ارسال ده‌ها هزار درخواست به سرور، تلاش می‌کرد تمام این داده‌ها، از تصاویر گرفته تا جزئی‌ترین متون، را بارگیری کند. این حملات ناگهانی و گسترده به قدری شدید بود که عملاً وب‌سایت شرکت را به زانو درآورد.

شرکت «تریپل‌گنگرز»، یک کسب‌وکار کوچک با تنها هفت کارمند، سال‌ها وقت و منابع صرف کرده تا بزرگ‌ترین پایگاه داده‌ی دیجیتالی از مدل‌های سه‌بعدی انسانی را ایجاد کند. این پایگاه داده شامل فایل‌های سه‌بعدی، تصاویر دقیق از پوست، مو، و حتی ویژگی‌های ظریف انسانی مانند زخم‌ها و خال‌کوبی‌هاست که برای طراحان بازی‌های ویدیویی و هنرمندان سه‌بعدی بسیار ارزشمند است.

اما حمله‌ی بات OpenAI، بحرانی جدی را به همراه آورد. علیرغم وجود صفحه‌ای در شرایط استفاده از سایت که به وضوح استفاده‌ی ربات‌ها از داده‌ها را بدون مجوز ممنوع می‌کند، این مانع در برابر هجوم این بات کارایی نداشت. تنها استفاده از فایل robots.txt و تنظیم دقیق برچسب‌های مخصوص OpenAI می‌توانست این بات‌ها را متوقف کند.

بات‌های هوش مصنوعی: کابوس جدید برای کسب‌وکارهای کوچک

فایل robots.txt، که به موتورهای جست‌وجو می‌گوید کدام قسمت‌های سایت را خزش نکنند، اکنون به ابزاری کلیدی در برابر بات‌های هوش مصنوعی تبدیل شده است. اما مشکل در اینجاست که رعایت آن کاملاً اختیاری است و شرکت‌های هوش مصنوعی، نظیر OpenAI، با ارسال هزاران درخواست قبل از شناسایی فایل به سایت‌ها فشار می‌آورند.

تومچوک با تنظیم فایل robots.txt و استفاده از ابزارهایی مانند Cloudflare توانست هجوم GPTBot و دیگر بات‌های مشابه را مهار کند، اما خسارات مالی و نگرانی‌های حقوقی همچنان باقی است. از آن بدتر، او هنوز نمی‌داند دقیقاً چه داده‌هایی توسط OpenAI به سرقت رفته است و هیچ راهی برای ارتباط با این شرکت یا حذف داده‌ها وجود ندارد.

این رویداد تنها نمونه‌ای از یک مشکل بزرگ‌تر است. طبق تحقیقات شرکت تبلیغاتی دیجیتال DoubleVerify، خزش و اسکرپینگ توسط بات‌های هوش مصنوعی در سال ۲۰۲۴ منجر به افزایش ۸۶ درصدی ترافیک نامعتبر شده است. اما بسیاری از وب‌سایت‌ها از اینکه مورد حمله قرار گرفته‌اند بی‌خبرند، چرا که این خزش‌ها به صورت پنهانی انجام می‌شود.

تومچوک به دیگر صاحبان کسب‌وکارهای کوچک هشدار می‌دهد که باید روزانه لاگ‌های سرور خود را بررسی کنند تا مطمئن شوند که بات‌های هوش مصنوعی در حال استخراج داده‌های ارزشمندشان نیستند. او همچنین معتقد است که شرکت‌های هوش مصنوعی باید ابتدا اجازه بگیرند و سپس اقدام به خزش کنند، نه اینکه مسئولیت جلوگیری از این حملات را به دوش صاحبان سایت‌ها بیندازند.

این مسئله تنها یک چالش فنی نیست؛ بلکه پای حقوق مالکیت معنوی و حریم خصوصی نیز در میان است. سایت «تریپل‌گنگرز» حاوی داده‌های واقعی از انسان‌هاست که تحت قوانین سختگیرانه‌ای مانند GDPR در اروپا محافظت می‌شود.

اگرچه بات OpenAI با طمع‌ورزی بی‌حد خود باعث شد «تریپل‌گنگرز» متوجه آسیب‌پذیری‌های خود شود، این نوع رفتار نشان‌دهنده‌ی شکافی عمیق در تنظیم مقررات پیرامون استفاده از داده‌ها توسط هوش مصنوعی است.

آیا زمان آن نرسیده که نظارت و مسئولیت‌پذیری بیشتری بر این غول‌های فناوری تحمیل شود؟ برای کسب‌وکارهای کوچک، جنگ علیه بات‌های هوش مصنوعی چیزی جز یک «نبرد بقا» نخواهد بود.