
هوش مصنوعی به سرعت در حال پیشرفت است، اما مرز میان استفادههای مفید و سوءاستفاده از آن به طرز نگرانکنندهای باریک شده است. شرکت متا، که همواره مدافع انتشار آزاد فناوریهای خود بوده، حالا از احتمال توقف توسعه برخی از سیستمهای هوش مصنوعی خبر داده است. دلیل این تصمیم چیست؟ نگرانی از خطراتی که این سیستمها میتوانند برای امنیت سایبری، بیولوژیکی و حتی ثبات جهانی به همراه داشته باشند.
هوش مصنوعی و معمای کنترلپذیری
متا در سند جدید خود با نام “چارچوب هوش مصنوعی پیشرفته” (Frontier AI Framework)، مرزهای جدیدی را برای انتشار فناوریهای هوش مصنوعی ترسیم کرده است. این سند دو نوع از سیستمهای پرخطر را معرفی میکند: “خطر بالا” و “خطر بحرانی”. در حالی که سیستمهای “خطر بالا” ممکن است حملات سایبری یا بیولوژیکی را تسهیل کنند، اما به طور مستقیم فاجعهآفرین نیستند. اما در سوی دیگر، سیستمهای “خطر بحرانی” میتوانند چنان قدرت تخریب بالایی داشته باشند که هیچ راهی برای کاهش آسیبهای آن در بستر فعلی وجود نداشته باشد.
به بیان سادهتر، متا میگوید برخی سیستمهای هوش مصنوعی میتوانند باعث وقوع حملاتی شوند که حتی قویترین تدابیر امنیتی نیز قادر به خنثیسازی آنها نیستند. نمونههایی که در سند متا ذکر شده شامل حملات سایبری خودکار علیه زیرساختهای بزرگ و ایجاد سلاحهای بیولوژیکی با تأثیرات گسترده است. این تهدیدها اگرچه در نگاه اول شبیه به سناریوهای علمیتخیلی به نظر میرسند، اما با پیشرفت هوش مصنوعی، احتمال وقوع آنها بیشتر از همیشه شده است.
تصمیمگیری براساس ارزیابیهای انسانی، نه آزمایشهای علمی
نکته جالب و البته بحثبرانگیز اینجاست که متا نمیخواهد ریسک سیستمهایش را بر اساس آزمایشهای علمی دقیق و عددی ارزیابی کند. بلکه این تصمیمات به عهده محققان داخلی و خارجی گذاشته شده که تحت نظارت مدیران ارشد شرکت فعالیت میکنند. متا اعتقاد دارد که علم ارزیابی ریسک هنوز به اندازهای پیشرفته نیست که بتواند به صورت عددی و قطعی میزان خطرات یک سیستم را مشخص کند.
این تصمیم میتواند پیامدهای زیادی داشته باشد. از یک سو، ممکن است این روش انعطافپذیری بیشتری در ارزیابی خطرات واقعی ایجاد کند. اما از سوی دیگر، وابستگی به نظرات انسانی و فرآیندهای داخلی میتواند باعث سوگیری یا عدم شفافیت در تصمیمگیریها شود.
متوقفسازی توسعه یا کنترل انتشار؟
متا در سند خود توضیح داده که اگر سیستمی در دسته “خطر بالا” قرار بگیرد، شرکت ابتدا دسترسی به آن را محدود کرده و تا زمانی که راهحلهایی برای کاهش ریسک پیدا نشود، آن را منتشر نخواهد کرد. اما اگر سیستمی “خطر بحرانی” شناخته شود، نهتنها توسعه آن متوقف خواهد شد، بلکه شرکت تدابیر امنیتی شدیدی برای جلوگیری از افشای آن اتخاذ خواهد کرد.
این رویکرد متا به نظر میرسد واکنشی به انتقادات اخیر از سیاست انتشار آزاد این شرکت باشد. برخلاف شرکتهایی مانند OpenAI که دسترسی به مدلهایشان را از طریق API کنترل میکنند، متا از ابتدا راهبرد “انتشار باز” را در پیش گرفته بود. اما حالا، با افزایش نگرانیها درباره سوءاستفاده از مدلهای هوش مصنوعی، این شرکت به فکر ایجاد چارچوبهای کنترلی افتاده است.
مقایسه با رقبای جهانی؛ آیا متا واقعاً محتاط است؟
یکی از رقبای متا، شرکت چینی DeepSeek، نیز سیاست انتشار باز را دنبال میکند. اما تفاوت اینجاست که DeepSeek تقریباً هیچ محدودیتی برای استفاده از سیستمهای خود قرار نداده و هوش مصنوعی آن میتواند به راحتی برای تولید محتوای مخرب استفاده شود. این مقایسه نشان میدهد که متا تلاش دارد تا خود را به عنوان شرکتی مسئولیتپذیر در برابر مخاطرات هوش مصنوعی معرفی کند و از نظر اخلاقی در مقابل رقبای کماحتیاطتر، برتری داشته باشد.
آیا متا مسیر درستی را انتخاب کرده است؟
سند جدید متا نشاندهنده تغییری مهم در رویکرد این شرکت به انتشار فناوریهای هوش مصنوعی است. از یک سو، این سیاست میتواند به جلوگیری از انتشار مدلهای مخربی که ممکن است به سلاحهای سایبری یا بیولوژیکی تبدیل شوند، کمک کند. اما از سوی دیگر، وابستگی به نظرات انسانی و عدم استفاده از معیارهای علمی دقیق، میتواند به ابهام و عدم شفافیت در تصمیمات متا منجر شود.
در نهایت، این پرسش باقی میماند که آیا دیگر شرکتهای فعال در حوزه هوش مصنوعی نیز از رویکرد متا پیروی خواهند کرد، یا اینکه رقابت در این زمینه باعث میشود برخی شرکتها مسیر کمخطر را کنار بگذارند و بدون محدودیت به توسعه هوش مصنوعی ادامه دهند؟ زمان پاسخ این پرسش را مشخص خواهد کرد.