
حذف عبارت «بیطرفی سیاسی» از اسناد سیاستگذاری OpenAI، جنجال تازهای در تقاطع سیاست و فناوری ایجاد کرده است. این شرکت که تا پیش از این، در نسخه اولیه «نقشه اقتصادی» خود برای صنعت هوش مصنوعی ایالات متحده، تأکید کرده بود که مدلهای هوش مصنوعی باید بهطور پیشفرض بیطرف باشند، اکنون به شکلی خاموش و بدون اعلام رسمی این ادعا را از متن خود حذف کرده است.
در پاسخ به این تغییر، سخنگوی OpenAI مدعی شده که این اصلاح تنها بخشی از فرآیند «سادهسازی» اسناد بوده و به سایر مدارک منتشرشده توسط شرکت، از جمله مشخصات مدلها (Model Spec) اشاره کرده که همچنان به بیطرفی و شفافیت در رفتار سیستمهای هوش مصنوعی تأکید دارند. اما آیا این تغییر تنها در راستای بهینهسازی متن بوده یا نشانهای از تغییر رویکرد این شرکت به شمار میآید؟
مسئله سوگیریهای سیاسی در هوش مصنوعی، بهویژه در سالهای اخیر، به یک میدان پرمناقشه تبدیل شده است. منتقدان، بهویژه از جناحهای راستگرای سیاسی در آمریکا، بارها ادعا کردهاند که چتباتها و مدلهای هوش مصنوعی نظیر ChatGPT، دیدگاههای محافظهکارانه را سانسور کرده و رویکردی بهاصطلاح «بیدارگرا» (woke) دارند. ایلان ماسک، که خود زمانی از بنیانگذاران OpenAI بود، با انتقاد از این وضعیت، تأثیر محیط فرهنگی سانفرانسیسکو و شرکتهای مستقر در آن منطقه را بر فلسفه و دیدگاه این مدلها برجسته کرده است.
ماسک، که اکنون شرکت هوش مصنوعی خود به نام xAI را راهاندازی کرده است، مدعی است که ایجاد یک مدل واقعاً بیطرف سیاسی کاری تقریباً غیرممکن است. حتی تلاشهای xAI نیز در جلوگیری از سوگیریها به نتیجه دلخواه نرسیده است. این مسئله نهتنها بر چالشهای فنی پیش روی هوش مصنوعی تأکید میکند، بلکه نشان میدهد که تفکیک فناوری از زمینههای اجتماعی، فرهنگی و سیاسی تقریباً غیرممکن است.
تحقیقات مستقل نیز بر وجود سوگیریهای سیاسی در مدلهای هوش مصنوعی صحه گذاشتهاند. برای مثال، مقالهای که اخیراً توسط پژوهشگرانی از بریتانیا منتشر شده، نشان داده است که ChatGPT در موضوعاتی مانند مهاجرت، تغییرات اقلیمی و ازدواج همجنسگرایان تمایلات لیبرال از خود نشان میدهد. این یافتهها باعث شده تا بسیاری از سیاستمداران و تحلیلگران، خواستار نظارت بیشتر بر عملکرد این سیستمها شوند.
با این حال، OpenAI تأکید کرده که هرگونه سوگیری مشاهدهشده در سیستمهایش بهعنوان «اشکال» تلقی میشود، نه «ویژگی». اما حذف عبارت «بیطرفی سیاسی» از اسناد سیاستگذاری، به نگرانیها دامن زده است. آیا این حرکت نشانهای از پذیرش تلویحی این است که بیطرفی مطلق در هوش مصنوعی یک هدف دستنیافتنی است؟ یا اینکه OpenAI در تلاش است تا از مسئولیتپذیری در برابر اتهامات سوگیری سیاسی شانه خالی کند؟
صرفنظر از دلایل پشت این تغییر، مسئله بیطرفی هوش مصنوعی، یکی از بحثبرانگیزترین چالشهای پیش روی این صنعت است. با توجه به نفوذ روزافزون هوش مصنوعی در تصمیمگیریهای روزمره، این سؤال که چگونه میتوان مدلی طراحی کرد که بتواند به شکلی منصفانه و بیطرفانه عمل کند، همچنان بیپاسخ باقی مانده است.
در نهایت، تصمیم OpenAI نشاندهنده فشارهای گستردهتری است که شرکتهای فناوری با آن مواجه هستند؛ فشارهایی که از سوی سیاستمداران، محققان و حتی کاربران عادی بر آنها وارد میشود. آینده این صنعت، تا حد زیادی، به توانایی آن در پاسخ به این انتقادات و رفع نگرانیها بستگی دارد. اما تا آن زمان، بحثهای پیرامون سوگیریهای سیاسی و فرهنگی در هوش مصنوعی همچنان ادامه خواهد داشت.