یک مرد ۶۰ ساله پس از پیروی از پیشنهاد ChatGPT برای جایگزینی نمک طعام با سدیم برومید، دچار مسمومیت نادر و شدید به نام «برومیسم» شد و با علائم روانپریشی به اورژانس منتقل گشت. این حادثه، تلاقی مخاطرهآمیز اطلاعات خودخدمتده و پیامدهای سلامت عمومی را در مرکز توجه قرار داده است.
در پی سه ماه مصرف سدیم برومید که آنلاین خریداری شده بود، بیمار دچار توهم، پارانویا و تشدید وضعیت روانی شد تا جایی که پزشکان پس از آزمایشها، برومیسم را تشخیص دادند. گزارشها نشان میدهد ChatGPT گزینهٔ برومید را پیشنهاد کرده اما هشدارهای بالینی و پرسشهای تشخیصی لازم را مطرح نکرده است.
شرح ماجرا
بیمار که نگران اثرات «کلرید» بر سلامت خود بود، پس از تحقیق اینترنتی و مشورت با ChatGPT، همهٔ نمک مصرفی را با سدیم برومید جایگزین کرد. پس از حدود سه ماه، علائم عصبی و روانی او شدت گرفت و او به بیمارستان منتقل شد. پزشکان پس از بررسی وضعیت و آزمایشها، مسمومیت با برومید را تأیید کردند وضعیتی که در دوران مدرن بسیار نادر شده است.
توصیهٔ هوش مصنوعی و خلأهای تشخیصی
طبق بازسازی گفتگوی بیمار با مدل، ChatGPT برومید را به عنوان یکی از گزینهها مطرح کرد و تنها اشارهای کلی به «زمینه» داشت. این پاسخ فاقد هشدارِ صریح پزشکی، سوالات تکمیلی برای فهم هدف بیمار و تشخیصدهی نظیر سابقهٔ دارویی یا دوز مصرفی بود. به گفتهٔ متخصصان، چنین پاسخی از یک پزشک واقعی در این شرایط بعید است که بدون پرسشهای لازم مطرح شود.
علائم، روند تشخیص و تاریخچهٔ برومیسم
برومیسم میتواند منجر به تهدیدهای نورولوژیک و روانی شود؛ از جمله توهم، پارانویا و اختلالات رفتاری که در این مورد هم دیده شد. در گذشتههای دور، برومیدها در داروهای آرامبخش کاربرد داشتند و موارد مسمومیت شایعتر بود، اما امروزه این پدیده تقریباً ریشهکن شده است. تشخیص نیازمند بررسی بالینی همراه با آزمایشهای شیمیایی و رد علل دیگر بود که تیم پزشکی آن را انجام داد.
واکنش جامعه پزشکی و پژوهشگران
پزشکان ضمن شبیهسازی گفتگو با مدل، به این نتیجه رسیدند که نبود سؤالات تشخیصی و هشدارهای ایمنی از طرف هوش مصنوعی، خطرناک است. جامعهٔ پزشکی این رویداد را نمونهای هشداردهنده از محدودیتهای ابزارهای خودخدمتده مبتنی بر زبان طبیعی دانسته و بر لزوم ارجاع به پزشک متخصص تأکید کرده است. این اتفاق باعث تقویت درخواستها برای تنظیم دقیقتر، شفافسازی مسئولیت و افزودن مکانیسمهای محافظتی شد.
پاسخ OpenAI و مسائل حقوقی-خدماتی
OpenAI به بندهای شرایط خدمات اشاره کرده که استفاده از این ابزارها را برای تشخیص یا درمان پزشکی به عنوان «تنها منبع حقیقت» رد میکند. این یادآوری قانونی اما عملی، شکاف بین هشدارهای قراردادی و نحوهٔ عملکرد واقعی سیستمها را روشن میسازد؛ خصوصاً وقتی کاربران پاسخها را بهعنوان راهنمایی عملی تلقی کنند.
پیامدها و هشدارهای ایمنی عمومی
این پرونده نشان میدهد که کاربران نباید توصیههای تخصصی سلامت را صرفاً از گفتگوهای خودخدمت با هوش مصنوعی بپذیرند، بهویژه زمانی که مراودهٔ کاربر با مدل فاقد اطلاعات پزشکی زمینهای و سؤالات تکمیلی است. نهادهای بهداشتی و توسعهدهندگان هوش مصنوعی باید روی هشدارهای صریح، محدودیتگذاری در پاسخها و طراحی مسیرهای ارجاع به متخصص کار کنند تا مخاطرات مشابه کاهش یابد.
این حادثه ترکیبی از سه نقص سیستمیک را نشان میدهد: اول، مدلهای زبانی گاهی گزینههای فنی یا شیمیایی را بدون سنجش سلامتمحور پیشنهاد میکنند؛ دوم، کاربران ممکن است اطلاعات فنی را به راهنمای اقدامات پزشکی تبدیل کنند؛ سوم، چارچوبهای حقوقی موجود (مانند شرایط خدمات) بهتنهایی مانع سوءتعبیرهای عملی نمیشوند. از منظر فنی، مدلهایی که پاسخهای مربوط به سلامت یا دارو ارائه میدهند باید طبقهبندی ریسک را لحاظ کنند و در موارد با ریسک بالا پاسخ را به «ارجاع به متخصص» یا «عدم پاسخ مشخص» محدود نمایند.
پیشبینی میکنم در کوتاهمدت فشار قانونی و رسانهای بر توسعهدهندگان هوش مصنوعی افزایش یابد تا مکانیسمهای محافظتی مشخص، اخطارهای برجسته و الزام به جمعآوری اطلاعات زمینهای کاربر برای پرسشهای بالینی اضافه شود. در میانهمدت، احتمال دارد مراکز سلامت و تنظیمگرها دستورالعملهایی برای پاسخدهی هوش مصنوعی در موضوعات بهداشتی تدوین کنند و ابزارها قادر به شناسایی و مسدودسازی توصیههای پرخطر گردند. همچنین این رویداد میتواند به افزایش آگاهی عمومی دربارهٔ محدودیتهای «پاسخهای خودخدمتده» منجر گردد.
جمعبندی
یک مرد ۶۰ ساله پس از جایگزینی نمک با سدیم برومید بهدنبال توصیهٔ ChatGPT دچار برومیسم نادر شد؛ این پرونده ضعفهای حفاظتی در پاسخهای هوش مصنوعی به مسائل پزشکی را نشان میدهد و ضرورت افزودن هشدارها، محدودیتهای ریسک و ارجاع به متخصصان را برجسته میسازد.