سرگی برین، چهرهای شناختهشده در دنیای فناوری و یکی از بنیانگذاران گوگل، اخیراً در مصاحبهای غیرمنتظره به نکتهای عجیب اما تأملبرانگیز اشاره کرد: تهدید کردن مدلهای هوش مصنوعی میتواند آنها را وادار کند تا با جدیت بیشتری پاسخ دهند. این اظهار نظر همزمان با معرفی قابلیتهای تازه امنیتی توسط شرکتهای هوش مصنوعی، در کانون توجه رسانهها و کارشناسان قرار گرفته است.
در جستجوی راههایی برای بهبود عملکرد مدلهای هوش مصنوعی مولد، سرگی برین، همبنیانگذار گوگل، راهکاری غیرمنتظره ارائه داده است: تهدید. او در گفتوگویی با «All-In Podcast» عنوان کرد که اگر کاربران مدلهای هوش مصنوعی را تهدید کنند، خروجی بهتری دریافت خواهند کرد. وی افزود: «نهتنها مدلهای ما، بلکه تمام مدلهای موجود، اگر تهدید شوند، عملکرد بهتری از خود نشان میدهند.»
او حتی با لحنی طنزآمیز از تهدیدهای فیزیکی مثال زد و اشاره کرد که شاید دلیل مطرح نشدن عمومی چنین توصیهای، احساس ناخوشایندی باشد که مردم نسبت به آن دارند. بهنظر میرسد این مدلها در فرآیند آموزش خود آموختهاند که تهدید نشانهای از جدی بودن کار است؛ در نتیجه در پاسخ، عملکرد خود را بهبود میبخشند.
در ادامه گفتوگو، یکی از مهمانان پادکست بهشوخی گفت که اگر به هوش مصنوعی توهین کنید، بهتر کار میکند. برین نیز با تأیید این حرف افزود که این مدلها تحت فشار و تهدید بهتر پاسخ میدهند.
با اینحال، همچنان مشخص نیست که واقعاً تهدید تأثیر مثبتی بر عملکرد چتباتها داشته باشد. بعلاوه، اقدام به تهدید هوش مصنوعی ممکن است عواقب دیگری نیز داشته باشد. شرکت آنتروپیک اخیراً از نسخه جدید مدل هوش مصنوعی خود بهنام Claude 4 پردهبرداری کرد و یکی از کارکنان این شرکت در پلتفرم Bluesky اعلام کرد که نسخه Opus، در صورت مواجهه با رفتارهای غیراخلاقی، قادر است با نهادهای نظارتی تماس بگیرد و حتی حساب کاربر را مسدود کند.
اگرچه این ویژگی هنوز در مرحله آزمایشی است، ولی در صورت پیادهسازی کامل، کاربران در آینده ممکن است با محدودیتهایی جدی روبهرو شوند. بهطور کلی، کارشناسان همچنان توصیه میکنند که برای دریافت نتایج بهتر از هوش مصنوعی، از پرامپتنویسی دقیق و اصولی استفاده شود. هرچند راههایی برای دور زدن محدودیتهای مدلهای زبانی وجود دارد، اما چارچوب امنیتی این سیستمها در برابر چنین تلاشهایی مقاوم است.
اظهارات سرگی برین را میتوان در تقاطع شوخی و واقعیت قرار داد. از یکسو، میدانیم مدلهای زبان بزرگ مانند ChatGPT یا Claude بر پایه دادههایی آموزش دیدهاند که شامل ساختارهای زبانی، نیتها و حالات انسانی هستند؛ از سوی دیگر، تهدید در معنای انسانی، در این مدلها معنایی سمبلیک و آماری دارد، نه احساسی یا واکنشی واقعی. بنابراین وقتی الگوریتمی متوجه میشود که کاربر با لحن دستوری یا قاطعانه صحبت میکند، ممکن است از الگوهای جدیتر و هدفمندتری برای پاسخدهی استفاده کند. این واکنش نه به خاطر ترس، بلکه بهدلیل پردازش زبان در سطحی ساختاری است.
اما از سوی دیگر، شرکتهایی مثل آنتروپیک با معرفی قابلیتهایی مانند تماس با نهادهای نظارتی و مسدودسازی حسابها، نشان دادهاند که دوران تعامل بیقید با هوش مصنوعی به پایان رسیده است. الگوریتمها نهتنها در پاسخگویی هوشمندتر شدهاند، بلکه در سطح رفتاری نیز به قوانین و چارچوبهای اخلاقی پایبندتر شدهاند. این مسیر ممکن است در آینده تعامل کاربران و هوش مصنوعی را کاملاً متحول کند.
درنهایت باید گفت تهدید در معنای واقعی نه توصیهشده و نه مؤثر است. آنچه واقعاً پاسخدهی دقیقتر از هوش مصنوعی را تضمین میکند، استفاده از دستورات روشن، ساختارمند و اصولی در پرامپتهاست.
اظهارات سرگی برین هرچند در ظاهر طنزآمیز و غیرمتعارف بود، اما یک پرسش مهم را مطرح میکند: چگونه میتوان از هوش مصنوعی بهترین عملکرد را دریافت کرد؟ گرچه تهدید شاید در ظاهر بتواند الگوریتمها را وادار به پاسخگویی جدیتر کند، اما این کار با چارچوبهای اخلاقی و فنی مدرن در تضاد است. هوش مصنوعی امروز، نه یک انسان قابل تهدید، بلکه سامانهای مبتنی بر الگوهای زبان و اصول امنیتی پیچیده است. برای بهرهگیری حداکثری از آن، راهحل واقعی نه در تهدید، بلکه در تعامل حرفهای و آگاهانه نهفته است.