
در حالی که دولتهای ایالتی همچون کالیفرنیا با شور و حرارت به تنظیم مقررات هوش مصنوعی میپردازند، کاخ سفید و دولت فدرال در تلاشاند تا یک رویکرد هماهنگ ارائه دهند. اما آیا این هماهنگی ممکن است؟ در میان هیاهوی تکنولوژی و سیاست، نگرانیها درباره حریم خصوصی، سوگیری دادهها و قدرت روزافزون هوش مصنوعی به اوج خود رسیده است.
سالهای اخیر شاهد شتابی خیرهکننده در پیشرفت هوش مصنوعی بودهایم. این فناوری، از ابزارهای خلاقانه تا مدلهای تصمیمگیری پیشرفته، تمامی جنبههای زندگی را تحت تأثیر قرار داده است. اما همزمان، دغدغههای اخلاقی، حقوقی و امنیتی درباره استفاده از هوش مصنوعی نیز شدت گرفتهاند.
در قلب این نگرانیها، دولتهای ایالتی آمریکا به عنوان پیشگامان تنظیم مقررات AI ظاهر شدهاند. ایالت کالیفرنیا، با امضای ۱۸ قانون جدید در حوزه هوش مصنوعی توسط گاوین نیوسام، راه را برای دیگر ایالتها هموار کرده است. اما جالب اینجاست که در همین سال، نیوسام قانونی پرمخاطب که به محدود کردن آزمایشها و توسعه هوش مصنوعی میپرداخت را وتو کرد. این تناقض، پیچیدگیهای تنظیم مقررات در این حوزه را بیش از پیش آشکار میکند.
از نگاه مارک وِدِرفورد، کارشناس برجسته امنیت سایبری و سیاستگذاری، تمرکز دولتهای ایالتی بر هوش مصنوعی نه تنها اجتنابناپذیر بلکه ضروری است. او معتقد است که دولت فدرال به دلیل فرایندهای پیچیده و طولانیمدت قانونگذاری، نمیتواند به سرعت با تغییرات روزافزون این فناوری همگام شود. ودرفورد که اکنون به عنوان معاون شرکت دادههای مصنوعی “گرتل” فعالیت میکند، باور دارد که هماهنگی میان ایالتها و ایجاد قوانینی جامع و همگرا چالش اصلی سالهای پیش رو خواهد بود.
با این حال، در فضای ایالتی، تفاوتهای سیاسی، جغرافیایی و فرهنگی باعث شده تا چشمانداز قوانین هوش مصنوعی به شدت متنوع باشد. برخی ایالتها، همچون کالیفرنیا، به عنوان پیشگام، به طور جدی روی مسائل حریم خصوصی، سوگیری دادهها و امنیت تمرکز کردهاند. از سوی دیگر، بسیاری از ایالتها هنوز در مرحله آزمایشی و اولیه تنظیم مقررات هستند. همین تفاوتها میتواند برای شرکتها و نوآوران چالشبرانگیز باشد، چرا که تطبیق با قوانین مختلف در ایالتهای متعدد مستلزم هزینه و منابع بسیار است.
یکی از راهحلهای احتمالی که توسط برخی از کارشناسان، از جمله ودرفورد، پیشنهاد میشود، استفاده از دادههای مصنوعی است. این فناوری با ارائه دادههای شبیهسازیشده که از دادههای واقعی تقلید میکنند اما حریم خصوصی را نقض نمیکنند، میتواند یک ابزار قدرتمند برای کاهش سوگیریها و تضمین کیفیت دادهها باشد. با این حال، مخالفانی نیز وجود دارند که نگران افزایش خطاها و تقویت سوگیریها توسط دادههای مصنوعی هستند.
در سطح فدرال، گزارش اخیر مجلس نمایندگان آمریکا درباره هوش مصنوعی نشان میدهد که تنظیم مقررات این فناوری به دلیل ماهیت پیچیده و سریعالتغییر آن به یک چالش بزرگ تبدیل شده است. با وجود تلاشهای انجامشده، فرایند تدوین قوانین در سطح فدرال همچنان کند پیش میرود.
در این میان، نگرانیهایی درباره “سانسور هوش مصنوعی” و محدودیتهایی که ممکن است برای این فناوری اعمال شود نیز وجود دارد. منتقدان این نگرانیها معتقدند که قوانین باید به جای ایجاد محدودیتهای غیرضروری، بر تضمین ایمنی و شفافیت تمرکز کنند.
آینده تنظیم مقررات هوش مصنوعی در آمریکا، به ویژه در سال 2025، همچنان مبهم است. اما یک چیز روشن است: این قوانین نه تنها بر فناوری بلکه بر آینده جامعه و اقتصاد تأثیرات عمیقی خواهند گذاشت. آیا ایالتها میتوانند با اتخاذ رویکردی هماهنگ، راه را برای آیندهای مطمئنتر باز کنند؟ یا این که اختلافات میان قوانین ایالتی و فدرال مانعی جدی بر سر راه نوآوری خواهد بود؟ تنها زمان پاسخ این سوالات را خواهد داد.