متا و چالش‌های اخلاقی جدید در توسعه هوش مصنوعی

در دسته مطالب: مسائل اخلاقی و اجتماعی
بهمن 16, 1403
متا و چالش‌های اخلاقی جدید در توسعه هوش مصنوعی
تصور کنید روزی برسد که هوش مصنوعی بتواند همانند یک انسان هر کاری را انجام دهد. حالا تصور کنید همین فناوری، بدون محدودیت در اختیار همگان قرار بگیرد. از دانشمندان و مهندسان گرفته تا هکرها و دولت‌های متخاصم. متا، غول فناوری، اکنون در برابر یک تصمیم سرنوشت‌ساز ایستاده: آیا باید توسعه سیستم‌های هوش مصنوعی پیشرفته را متوقف کند، یا ریسک‌های آن را بپذیرد و راهی برای مدیریت‌شان بیابد؟

هوش مصنوعی به سرعت در حال پیشرفت است، اما مرز میان استفاده‌های مفید و سوءاستفاده از آن به طرز نگران‌کننده‌ای باریک شده است. شرکت متا، که همواره مدافع انتشار آزاد فناوری‌های خود بوده، حالا از احتمال توقف توسعه برخی از سیستم‌های هوش مصنوعی خبر داده است. دلیل این تصمیم چیست؟ نگرانی از خطراتی که این سیستم‌ها می‌توانند برای امنیت سایبری، بیولوژیکی و حتی ثبات جهانی به همراه داشته باشند.

هوش مصنوعی و معمای کنترل‌پذیری

متا در سند جدید خود با نام “چارچوب هوش مصنوعی پیشرفته” (Frontier AI Framework)، مرزهای جدیدی را برای انتشار فناوری‌های هوش مصنوعی ترسیم کرده است. این سند دو نوع از سیستم‌های پرخطر را معرفی می‌کند: “خطر بالا” و “خطر بحرانی”. در حالی که سیستم‌های “خطر بالا” ممکن است حملات سایبری یا بیولوژیکی را تسهیل کنند، اما به طور مستقیم فاجعه‌آفرین نیستند. اما در سوی دیگر، سیستم‌های “خطر بحرانی” می‌توانند چنان قدرت تخریب بالایی داشته باشند که هیچ راهی برای کاهش آسیب‌های آن در بستر فعلی وجود نداشته باشد.

به بیان ساده‌تر، متا می‌گوید برخی سیستم‌های هوش مصنوعی می‌توانند باعث وقوع حملاتی شوند که حتی قوی‌ترین تدابیر امنیتی نیز قادر به خنثی‌سازی آن‌ها نیستند. نمونه‌هایی که در سند متا ذکر شده شامل حملات سایبری خودکار علیه زیرساخت‌های بزرگ و ایجاد سلاح‌های بیولوژیکی با تأثیرات گسترده است. این تهدیدها اگرچه در نگاه اول شبیه به سناریوهای علمی‌تخیلی به نظر می‌رسند، اما با پیشرفت هوش مصنوعی، احتمال وقوع آن‌ها بیشتر از همیشه شده است.

تصمیم‌گیری براساس ارزیابی‌های انسانی، نه آزمایش‌های علمی

نکته جالب و البته بحث‌برانگیز اینجاست که متا نمی‌خواهد ریسک سیستم‌هایش را بر اساس آزمایش‌های علمی دقیق و عددی ارزیابی کند. بلکه این تصمیمات به عهده محققان داخلی و خارجی گذاشته شده که تحت نظارت مدیران ارشد شرکت فعالیت می‌کنند. متا اعتقاد دارد که علم ارزیابی ریسک هنوز به اندازه‌ای پیشرفته نیست که بتواند به صورت عددی و قطعی میزان خطرات یک سیستم را مشخص کند.

این تصمیم می‌تواند پیامدهای زیادی داشته باشد. از یک سو، ممکن است این روش انعطاف‌پذیری بیشتری در ارزیابی خطرات واقعی ایجاد کند. اما از سوی دیگر، وابستگی به نظرات انسانی و فرآیندهای داخلی می‌تواند باعث سوگیری یا عدم شفافیت در تصمیم‌گیری‌ها شود.

متوقف‌سازی توسعه یا کنترل انتشار؟

متا در سند خود توضیح داده که اگر سیستمی در دسته “خطر بالا” قرار بگیرد، شرکت ابتدا دسترسی به آن را محدود کرده و تا زمانی که راه‌حل‌هایی برای کاهش ریسک پیدا نشود، آن را منتشر نخواهد کرد. اما اگر سیستمی “خطر بحرانی” شناخته شود، نه‌تنها توسعه آن متوقف خواهد شد، بلکه شرکت تدابیر امنیتی شدیدی برای جلوگیری از افشای آن اتخاذ خواهد کرد.

این رویکرد متا به نظر می‌رسد واکنشی به انتقادات اخیر از سیاست انتشار آزاد این شرکت باشد. برخلاف شرکت‌هایی مانند OpenAI که دسترسی به مدل‌هایشان را از طریق API کنترل می‌کنند، متا از ابتدا راهبرد “انتشار باز” را در پیش گرفته بود. اما حالا، با افزایش نگرانی‌ها درباره سوءاستفاده از مدل‌های هوش مصنوعی، این شرکت به فکر ایجاد چارچوب‌های کنترلی افتاده است.

مقایسه با رقبای جهانی؛ آیا متا واقعاً محتاط است؟

یکی از رقبای متا، شرکت چینی DeepSeek، نیز سیاست انتشار باز را دنبال می‌کند. اما تفاوت اینجاست که DeepSeek تقریباً هیچ محدودیتی برای استفاده از سیستم‌های خود قرار نداده و هوش مصنوعی آن می‌تواند به راحتی برای تولید محتوای مخرب استفاده شود. این مقایسه نشان می‌دهد که متا تلاش دارد تا خود را به عنوان شرکتی مسئولیت‌پذیر در برابر مخاطرات هوش مصنوعی معرفی کند و از نظر اخلاقی در مقابل رقبای کم‌احتیاط‌تر، برتری داشته باشد.

آیا متا مسیر درستی را انتخاب کرده است؟

سند جدید متا نشان‌دهنده تغییری مهم در رویکرد این شرکت به انتشار فناوری‌های هوش مصنوعی است. از یک سو، این سیاست می‌تواند به جلوگیری از انتشار مدل‌های مخربی که ممکن است به سلاح‌های سایبری یا بیولوژیکی تبدیل شوند، کمک کند. اما از سوی دیگر، وابستگی به نظرات انسانی و عدم استفاده از معیارهای علمی دقیق، می‌تواند به ابهام و عدم شفافیت در تصمیمات متا منجر شود.

در نهایت، این پرسش باقی می‌ماند که آیا دیگر شرکت‌های فعال در حوزه هوش مصنوعی نیز از رویکرد متا پیروی خواهند کرد، یا اینکه رقابت در این زمینه باعث می‌شود برخی شرکت‌ها مسیر کم‌خطر را کنار بگذارند و بدون محدودیت به توسعه هوش مصنوعی ادامه دهند؟ زمان پاسخ این پرسش را مشخص خواهد کرد.