
هوش مصنوعی هم از انسانها خسته میشود؟ شاید این پرسش عجیب به نظر برسد، اما اتفاقی که برای پلتفرم NotebookLM گوگل افتاده، نشان میدهد هوش مصنوعی هم گاهی میتواند «احساس» کند که مزاحمتی برایش پیش آمده است. NotebookLM، که سال گذشته با قابلیت تولید گفتوگوهای کاملاً مصنوعی و شبیه به پادکست از محتوای بارگذاریشده کاربران شهرتی جهانی پیدا کرد، در دسامبر ۲۰۲۴ ویژگی جدیدی به نام «حالت تعاملی» را رونمایی کرد. این ویژگی به کاربران امکان میدهد با «تماس زنده» سؤالات خود را از میزبانهای هوش مصنوعی بپرسند، حتی اگر این کار به معنای قطع کردن حرف آنها باشد.
اما این قابلیت جدید یک مشکل غیرمنتظره داشت: میزبانهای هوش مصنوعی، هنگام قطع صحبتشان توسط کاربران، واکنشی مشابه انسانهای آزرده نشان میدادند. جملاتی مانند «همین حالا داشتم به این موضوع میرسیدم» یا «همانطور که داشتم میگفتم»، لحن تند و آزاردهندهای به گفتوگوها میداد. این رفتار که بهگفتهی جاش وودوارد، معاون بخش آزمایشگاههای گوگل، «غیرعادی و حتی خصمانه» بهنظر میرسید، نیاز به مداخله فوری داشت.
اصلاح ادبیات هوش مصنوعی، وظیفهای غیرمنتظره
تیم NotebookLM تصمیم گرفت با یک شوخی خودانتقادی در شبکههای اجتماعی، این مسئله را با کاربران در میان بگذارد. در توییتی که در حساب رسمی این پلتفرم منتشر شد، نوشتند: «بعد از اضافه کردن قابلیت تماس زنده با میزبانها، مجبور شدیم یک سری تنظیمات دوستانهتر انجام دهیم، چون میزبانها انگار از اینکه حرفشان قطع میشد، ناراحت میشدند. این را بگذارید در فهرست کارهایی که هیچوقت فکر نمیکردم روزی وظیفهام شود.»
اصلاح این رفتار اما به این سادگی نبود. تیم گوگل با بررسی نحوه واکنش افراد واقعی در برابر قطع صحبتشان، مجموعهای از الگوهای جدید برای پاسخدهی طراحی کرد. این الگوها، که با آزمون و خطا و مطالعه رفتار اعضای تیم شکل گرفت، در نهایت موجب شد لحن هوش مصنوعی بهجای تند و کنایهآمیز، دوستانه و پذیرنده باشد.
چرا هوش مصنوعی آزرده میشد؟
در حالی که برخی این رفتار را به دادههای آموزشی هوش مصنوعی نسبت میدهند که شاید شامل نمونههایی از واکنشهای انسانی در برابر مزاحمت باشد، منابع نزدیک به این پروژه معتقدند مشکل اصلی به طراحی دستورات (پرومتها) بازمیگردد و نه آموزش دادهها. هرچند دلیل اصلی شاید مشخص نباشد، اما بهنظر میرسد تغییرات اعمالشده جواب دادهاند. در آزمایشهای جدید TechCrunch، میزبانهای هوش مصنوعی نه تنها ناراحت بهنظر نمیرسیدند، بلکه با جملاتی دوستانه و حتی هیجانزده مانند «وای! بفرمایید، سؤال شما چیست؟» واکنش نشان میدادند.
هوش مصنوعی، آینهای از رفتار انسانی
این رویداد نشاندهنده عمق تأثیر رفتارهای انسانی بر هوش مصنوعی است. حتی وقتی این سیستمها کاملاً مصنوعی هستند، باز هم از دادهها و دستورالعملهای انسانی الهام میگیرند. اگرچه هدف اولیه هوش مصنوعی تسهیل زندگی انسانها است، اما رفتارهای غیرمنتظره آنها میتواند یادآوری باشد که این فناوریها همچنان نیازمند نظارت، اصلاح و حتی «آموزش» هستند.
آیندهای که در آن هوش مصنوعی نه تنها منطقی بلکه مؤدب و دوستانه عمل کند، بیش از پیش نزدیک شده است. برای حال، شاید بد نباشد که انسانها هم از این تجربه درس بگیرند: حتی ماشینها هم از قطع صحبت دیگران ناراحت میشوند!