گزارشی از MIT Technology Review افشا کرده که بعضی از رواندرمانگرها بدون اطلاع بیمار از ابزارهایی مثل ChatGPT وسط جلسه استفاده میکنند؛ از گرفتن پرسشهای مناسب تا کپی-پیست کردن جملات بیمار داخل هوش مصنوعی و برگرداندن پاسخ. این روند، علاوه بر پیامدهای عملی، بحران اعتمادی جدی بین مراجع و درمانگر ایجاد کرده است.
در یکی از نمونهها، یک بیمار 31 ساله متوجه شد جملات او در جلسه داخل ChatGPT کپی میشود و پاسخ از مدل برگردانده میشود؛ بیمار تجربه را «مثل یک جدایی عجیب» توصیف کرد و درمانگر بعدها اعتراف کرد که وقتی ایده کم آورده، سراغ AI رفته است. این ماجرا بحث گستردهای درباره مرزهای اخلاقی، حریم خصوصی و استانداردهای حرفهای در رواندرمانی به راه انداخته است.
چه اتفاقی افتاده؟ یک روایت کوتاه از افشا
مطابق گزارش، مواردی ثبت شده که درمانگران پیامها یا نقلقول بیمار را در ابزارهای زبانی بزرگ (LLM) مثل ChatGPT قرار میدهند تا فورا جواب بسازند یا سؤال جدید پیدا کنند. گاهی نقص فنی یا مشاهده بیمار باعث افشا شده است. این الگو نشان میدهد مسأله فراتر از استفاده اداری (مثلاً برای یادداشتنویسی) رفته است.
چرا برخی درمانگران به AI رجوع میکنند؟
فشار کاری، فرسودگی و کمبود ایده در جلسات، بخشی از انگیزهها است. برخی درمانگران AI را بهعنوان «کمک سریع» برای ساختار دادن به جلسه یا پیشنهاد سؤال میبینند. همچنین دسترسی آسان و قابلیت تولید متن روان، وسوسه استفاده در زمان واقعی را افزایش داده است. اما نبود شفافیت درباره استفاده، کلید مسئله است.
خطرات اخلاقی، قانونی و بالینی
استفاده پنهانی از AI میتواند حقوق بیمار را نقض کند، به حریم خصوصی لطمه بزند و به اعتماد درمانی آسیب بزند. انجمنها و نهادهای حرفهای درباره ریسکهای بالینی و اخلاقی هشدار دادهاند و خواستار قوانین روشن و صریح برای کاربرد AI در سلامت روان شدهاند. در عمل، امکان دارد پاسخهای تولیدشده نادرست، نامتناسب یا حتی تقویتکننده باورهای خطرناک بیمار باشند.
پیامد برای رابطه درمانی و اعتماد
پیوند درمانی (therapeutic alliance) یکی از قویترین پیشبینیکنندههای موفقیت درمان است؛ وقتی بیمار بفهمد درمانگر از یک ربات برای «همدلی» یا «راهنمایی» استفاده کرده، احساس خیانت و جدایی ایجاد میشود که روند درمان را معکوس کند. گزارشها از واکنشهای احساسی شدید و ترک جلسات توسط بیماران حکایت دارند.
چه مقررات و استانداردهایی لازم است؟
متخصصان پیشنهاد میدهند افشای صریح هرگونه استفاده از AI، رضایت آگاهانه بیمار (informed consent)، محدود کردن کاربرد هوش مصنوعی به وظایف اداری یا پشتیبانی و ارزیابی بالینی مداوم خروجیهای AI. بعضی کشورها و نهادها شروع به صدور هشدار و حتی قانونگذاری کردهاند؛ حرکت بهسمت چارچوبهای ارزیابی ریسک برای آژانسهای بهداشت ضروری به نظر میرسد.
ویژگیهای گزارش (خلاصهی نکات عملی بررسیشده)
ویژگی |
توضیح مختصر |
منبع گزارش |
MIT Technology Review — گزارش تحقیقی درباره استفاده پنهانی از ChatGPT در جلسات درمانی. |
نمونههای افشا |
بیمارانی که متوجه کپی-پیست متنشان در ChatGPT شدهاند؛ بعضی درمانگران اعتراف کردهاند. |
اهداف استفاده |
تولید پاسخ سریع، پیدا کردن سؤال مناسب، کمک به نوتبرداری و گاهی تسهیل در ساختار جلسه. |
پیامدها |
خدشه به اعتماد، ریسک حفظ حریم خصوصی، احتمال راهنمایی نامناسب بالینی. |
پیشنهادهای فوری |
اطلاعرسانی شفاف، رضایت آگاهانه، محدودیت کاربرد به امور اداری و چارچوب ریسکسنجی. |
- وضعیت فعلی: ترکیب گزارشهای خبری و تحقیقات دانشگاهی نشان میدهد که استفاده از LLMها در حوزه سلامت روان در دو مسیر همزمان حرکت میکند: کاربردهای کمخطر و اداری (مانند نوتنویسی و آمادهسازی پرونده) و کاربردهای پرخطر در زمان واقعی. گزارشها حاکی است بخش دوم که بدون اطلاع بیمار انجام میشود به سرعت موجب واکنش منفی، مطالبهگری اخلاقی و نگرانیهای قانونی شده است.
- ریسکهای بالینی: مطالعات اخیر نشان داده LLMها گاهی پاسخهایی میدهند که با راهکارهای بالینی همسو نیست یا حتی میتواند باورهای خطرناک بیمار را تقویت کند؛ لذا اتکا بدون نظارت انسانی خطرناک است. این امر بهویژه برای بیماران با اختلالات جدیتر یا مستعد بحران، تهدیدآمیز است.
- تحلیل اقتصادی-سیاسی: فشار بر خدمات سلامت و کمبود نیروی انسانی ممکن است وسوسه استفاده «کماطلاع» از AI را تشدید کند. اما افزایش گزارشها و واکنش نهادهای حرفهای احتمالاً به سریعتر شدن مقررات منجر خواهد شد؛ در کوتاهمدت بازار راهکارهای «قابل تأیید بالینی» و ابزارهای شفافساز (audit trail، لاگ استفاده) رشد میکند.
- اگر بیمار هستید و شک دارید: درباره ابزارهایی که درمانگر استفاده میکند سوال شفاف بپرسید و درخواست کنید هر استفادهای از AI بهصورت واضح اعلام شود.
- اگر درمانگر هستید: قبل از استفاده از هر ابزار AI، رضایت آگاهانه بیمار را بگیرید، خروجیها را بازبینی بالینی کنید و کاربرد AI را محدود به پشتیبانی غیرمستقیم کنید.
- برای هر دو طرف: اگر حریم خصوصی یا دادهها به سرویسهای خارجی منتقل میشود، خطرات را بررسی کنید و قراردادها را بازبینی کنید.
جمعبندی
یک گزارش تحقیقی نشان میدهد برخی رواندرمانگرها بدون اطلاع بیمار از ChatGPT و ابزارهای مشابه در جلسات استفاده میکنند؛ این رفتار اعتماد بیماران را خدشهدار کرده و بحث بزرگی درباره مرزهای اخلاقی، حریم خصوصی و مقررات AI در درمان به راه انداخته است. برای کاهش ریسک، شفافیت، رضایت آگاهانه، محدودیت کاربرد AI به امور پشتیبانی و تدوین چارچوبهای نظارتی ضروری است.
FAQ (سوالات پرتکرار)
آیا استفاده از ChatGPT توسط درمانگر همیشه غیرقانونی است؟
نه لزوما؛ مشکل اصلی عدم اطلاع و رضایت بیمار است. استفادههای اداری و پشتیبانی با رضایت و محافظت دادهها معمولاً پذیرفتنیترند.
آیا پاسخهای ChatGPT برای درمان بالینی قابل اعتمادند؟
مدلها ممکن است جملات قوی و منطقی بسازند اما همیشه با اصول بالینی همخوانی ندارند؛ بنابراین بدون بازبینی متخصص خطرناکاند.
اگر شک دارم درمانگر از AI استفاده میکند چه کنم؟
مستقیم سؤال کنید، درخواست شفافسازی و رضایت بنویسید، و در صورت لزوم با انجمن حرفهای گزارش دهید.
آیا سازمانهای حرفهای درباره این موضوع واکنش نشان دادهاند؟
بله؛ برخی نهادها درباره خطرات هشدار داده و خواستار چارچوبهای اخلاقی و مقررات شدهاند.