چالش‌های ایمنی AGI و اختلاف‌نظر کارشناسان

در دسته مطالب: اخبار هوش مصنوعی
فروردین 13, 1404
چالش‌های ایمنی AGI و اختلاف‌نظر کارشناسان

آیا هوش مصنوعی عمومی (AGI) می‌تواند آینده‌ای پر از پیشرفت یا تهدیدی جدی برای بشریت باشد؟ دیپ‌مایند، شرکت پیشرو در زمینه هوش مصنوعی، در گزارشی جامع به بررسی این موضوع پرداخته است.

در حالی که برخی کارشناسان تحقق AGI را دور از دسترس می‌دانند، دیپ‌مایند با انتشار مقاله‌ای ۱۴۵ صفحه‌ای، پیش‌بینی می‌کند که این فناوری تا سال ۲۰۳۰ ممکن است به واقعیت بپیوندد و پیامدهای جدی به همراه داشته باشد.

دیپ‌مایند، یکی از شرکت‌های تابعه گوگل، اخیراً مقاله‌ای ۱۴۵ صفحه‌ای منتشر کرده که در آن به بررسی رویکردهای ایمنی در توسعه هوش مصنوعی عمومی (AGI) پرداخته است. این مقاله، که توسط شین لگ، یکی از بنیان‌گذاران دیپ‌مایند، هم‌نویسی شده، پیش‌بینی می‌کند که AGI ممکن است تا سال ۲۰۳۰ توسعه یابد و می‌تواند منجر به “آسیب‌های شدید” شود. در این مقاله، دیپ‌مایند رویکردهای خود را در مقایسه با سایر آزمایشگاه‌های هوش مصنوعی مانند Anthropic و OpenAI مورد بررسی قرار داده و تأکید می‌کند که توسعه‌دهندگان باید به‌طور فعال برای کاهش این خطرات برنامه‌ریزی کنند. با این حال، برخی کارشناسان با فرضیات این مقاله موافق نیستند و معتقدند که مفهوم AGI به‌طور علمی به‌خوبی تعریف نشده است.

مقاله دیپ‌مایند نشان‌دهنده نگرانی‌های فزاینده در مورد توسعه AGI و پیامدهای احتمالی آن است. در حالی که این شرکت بر اهمیت برنامه‌ریزی فعال برای کاهش خطرات تأکید می‌کند، برخی کارشناسان معتقدند که مفهوم AGI هنوز به‌طور دقیق تعریف نشده و پیش‌بینی زمان تحقق آن دشوار است. با این حال، توافق عمومی بر این است که با پیشرفت سریع فناوری، توجه به مسائل ایمنی و اخلاقی در توسعه هوش مصنوعی ضروری است.