آیا هوش مصنوعی OpenAI از بی‌طرفی سیاسی خداحافظی کرده است؟

در دسته مطالب: مسائل اخلاقی و اجتماعی
دی 26, 1403
آیا هوش مصنوعی OpenAI از بی‌طرفی سیاسی خداحافظی کرده است؟
تصمیم جدید OpenAI، شرکتی که همیشه به‌عنوان پیشتاز در فناوری هوش مصنوعی شناخته می‌شود، موجی از جنجال‌ها و گمانه‌زنی‌ها را در محافل فناوری و سیاسی به همراه داشته است. حذف بی‌سروصدای عبارت «بی‌طرفی سیاسی» از اسناد سیاست‌گذاری این شرکت، به‌خصوص در دورانی که بحث‌های داغی پیرامون سوگیری‌های هوش مصنوعی در جریان است، چه پیامی را به جهان مخابره می‌کند؟

حذف عبارت «بی‌طرفی سیاسی» از اسناد سیاست‌گذاری OpenAI، جنجال تازه‌ای در تقاطع سیاست و فناوری ایجاد کرده است. این شرکت که تا پیش از این، در نسخه اولیه «نقشه اقتصادی» خود برای صنعت هوش مصنوعی ایالات متحده، تأکید کرده بود که مدل‌های هوش مصنوعی باید به‌طور پیش‌فرض بی‌طرف باشند، اکنون به شکلی خاموش و بدون اعلام رسمی این ادعا را از متن خود حذف کرده است.

در پاسخ به این تغییر، سخنگوی OpenAI مدعی شده که این اصلاح تنها بخشی از فرآیند «ساده‌سازی» اسناد بوده و به سایر مدارک منتشرشده توسط شرکت، از جمله مشخصات مدل‌ها (Model Spec) اشاره کرده که همچنان به بی‌طرفی و شفافیت در رفتار سیستم‌های هوش مصنوعی تأکید دارند. اما آیا این تغییر تنها در راستای بهینه‌سازی متن بوده یا نشانه‌ای از تغییر رویکرد این شرکت به شمار می‌آید؟

مسئله سوگیری‌های سیاسی در هوش مصنوعی، به‌ویژه در سال‌های اخیر، به یک میدان پرمناقشه تبدیل شده است. منتقدان، به‌ویژه از جناح‌های راست‌گرای سیاسی در آمریکا، بارها ادعا کرده‌اند که چت‌بات‌ها و مدل‌های هوش مصنوعی نظیر ChatGPT، دیدگاه‌های محافظه‌کارانه را سانسور کرده و رویکردی به‌اصطلاح «بیدارگرا» (woke) دارند. ایلان ماسک، که خود زمانی از بنیان‌گذاران OpenAI بود، با انتقاد از این وضعیت، تأثیر محیط فرهنگی سان‌فرانسیسکو و شرکت‌های مستقر در آن منطقه را بر فلسفه و دیدگاه این مدل‌ها برجسته کرده است.

ماسک، که اکنون شرکت هوش مصنوعی خود به نام xAI را راه‌اندازی کرده است، مدعی است که ایجاد یک مدل واقعاً بی‌طرف سیاسی کاری تقریباً غیرممکن است. حتی تلاش‌های xAI نیز در جلوگیری از سوگیری‌ها به نتیجه دلخواه نرسیده است. این مسئله نه‌تنها بر چالش‌های فنی پیش روی هوش مصنوعی تأکید می‌کند، بلکه نشان می‌دهد که تفکیک فناوری از زمینه‌های اجتماعی، فرهنگی و سیاسی تقریباً غیرممکن است.

تحقیقات مستقل نیز بر وجود سوگیری‌های سیاسی در مدل‌های هوش مصنوعی صحه گذاشته‌اند. برای مثال، مقاله‌ای که اخیراً توسط پژوهشگرانی از بریتانیا منتشر شده، نشان داده است که ChatGPT در موضوعاتی مانند مهاجرت، تغییرات اقلیمی و ازدواج همجنس‌گرایان تمایلات لیبرال از خود نشان می‌دهد. این یافته‌ها باعث شده تا بسیاری از سیاستمداران و تحلیل‌گران، خواستار نظارت بیشتر بر عملکرد این سیستم‌ها شوند.

با این حال، OpenAI تأکید کرده که هرگونه سوگیری مشاهده‌شده در سیستم‌هایش به‌عنوان «اشکال» تلقی می‌شود، نه «ویژگی». اما حذف عبارت «بی‌طرفی سیاسی» از اسناد سیاست‌گذاری، به نگرانی‌ها دامن زده است. آیا این حرکت نشانه‌ای از پذیرش تلویحی این است که بی‌طرفی مطلق در هوش مصنوعی یک هدف دست‌نیافتنی است؟ یا اینکه OpenAI در تلاش است تا از مسئولیت‌پذیری در برابر اتهامات سوگیری سیاسی شانه خالی کند؟

صرف‌نظر از دلایل پشت این تغییر، مسئله بی‌طرفی هوش مصنوعی، یکی از بحث‌برانگیزترین چالش‌های پیش روی این صنعت است. با توجه به نفوذ روزافزون هوش مصنوعی در تصمیم‌گیری‌های روزمره، این سؤال که چگونه می‌توان مدلی طراحی کرد که بتواند به شکلی منصفانه و بی‌طرفانه عمل کند، همچنان بی‌پاسخ باقی مانده است.

در نهایت، تصمیم OpenAI نشان‌دهنده فشارهای گسترده‌تری است که شرکت‌های فناوری با آن مواجه هستند؛ فشارهایی که از سوی سیاستمداران، محققان و حتی کاربران عادی بر آن‌ها وارد می‌شود. آینده این صنعت، تا حد زیادی، به توانایی آن در پاسخ به این انتقادات و رفع نگرانی‌ها بستگی دارد. اما تا آن زمان، بحث‌های پیرامون سوگیری‌های سیاسی و فرهنگی در هوش مصنوعی همچنان ادامه خواهد داشت.