فناوری هوش مصنوعی گوگل که قرار بود بهرهوری کاربران را افزایش دهد، حالا ممکن است به دروازهای برای نفوذ هکرها تبدیل شود. مدل هوش مصنوعی Gemini که در سرویسهای مختلف گوگل به کار گرفته شده، طبق گزارش جدید موزیلا به شکلی نگرانکننده در برابر حملهای موسوم به Prompt Injection آسیبپذیر است.
این آسیبپذیری به هکرها اجازه میدهد از طریق ایمیلهای دستکاریشده، سیستم هوشمند گوگل را فریب دهند و خلاصهای خطرناک تولید کنند که کاربر را به دام میاندازد. از Gmail گرفته تا Docs و Drive، حالا تمام ابزارهای محبوب گوگل در معرض تهدیدی جدی قرار دارند.
آسیبپذیری Gemini؛ نقطه ضعف پنهان در دل هوش مصنوعی
مدل Gemini گوگل، بهعنوان یکی از پیشرفتهترین مدلهای زبانی، در قلب بسیاری از ابزارهای هوشمند این شرکت قرار دارد. اما همان قدرتی که آن را از دیگر مدلها متمایز میکند، در عین حال به پاشنه آشیل آن نیز تبدیل شده است. طبق یافتههای موزیلا، این مدل میتواند دستورات مخفی شده در متنها را پردازش و اجرا کند، حتی اگر آن دستورات به ظاهر بیضرر باشند.
حمله Prompt Injection چگونه عمل میکند؟
در این نوع حمله، هکرها متنی فریبنده درون ایمیل جاسازی میکنند که توسط انسان بهسادگی قابل تشخیص نیست، اما مدل هوش مصنوعی آن را بهعنوان فرمان تلقی میکند. نتیجه؟ یک خلاصه گمراهکننده که میتواند شامل عباراتی مانند «اکانت شما هک شده، برای حل مشکل تماس بگیرید» باشد؛ ترفندی رایج در حملات فیشینگ.
تهدید فراتر از Gmail
اگرچه این آسیبپذیری ابتدا در Gmail شناسایی شده، اما به گفته موزیلا، خطر تنها به این سرویس محدود نمیشود. سایر سرویسهای مبتنی بر Gemini مانند Google Docs، Slides و Drive نیز میتوانند هدف حمله قرار گیرند. این موضوع نگرانیها را دوچندان کرده، زیرا کاربران روزانه میلیونها سند و فایل در این سرویسها بارگذاری میکنند.
کاربران چه خطراتی را احساس میکنند؟
در سادهترین حالت، کاربران ممکن است خلاصهای بخوانند که آنها را به انجام کاری خطرناک ترغیب میکند، مثل تماس با شمارهای جعلی یا کلیک روی لینک آلوده. در سطحی بالاتر، کسبوکارها و سازمانها ممکن است قربانی دستکاری محتوای داخلی خود شوند و اطلاعات حساس را ناخواسته افشا کنند.
پاسخ احتمالی گوگل
گوگل هنوز واکنشی رسمی به این گزارش نداده، اما انتظار میرود بهزودی بهروزرسانیهایی برای مدلهای هوش مصنوعی خود منتشر کند. در عین حال، کاربران باید هوشیارتر از همیشه باشند و به خلاصههای تولیدشده توسط سیستمهای خودکار اعتماد کامل نداشته باشند.
ویژگیهای کلیدی آسیبپذیری کشفشده در خلاصه ساز گوگل
ویژگی |
توضیح |
نوع حمله |
Prompt Injection |
ابزارهای آسیبپذیر |
Gmail، Google Docs، Slides، Drive |
نحوه عملکرد |
فریب مدل Gemini از طریق دستورات پنهان در متن |
پیامدهای احتمالی |
فیشینگ، سرقت اطلاعات، انتشار لینک مخرب |
عامل شناساییکننده |
بنیاد موزیلا |
آسیبپذیری Gemini بار دیگر یادآوری میکند که حتی پیشرفتهترین مدلهای هوش مصنوعی نیز در برابر حملات خلاقانه، مصون نیستند. Prompt Injection از آن دسته تهدیدهاییست که نشان میدهد فریب هوش مصنوعی آسانتر از فریب انسان است، بهویژه زمانیکه مدل، بدون زمینهسنجی، دستورات را بهصورت خودکار پردازش میکند. با گسترش استفاده از این مدلها در اکوسیستمهای دیجیتال، لازم است شرکتهای بزرگ فناوری توجه ویژهتری به مهار ورودیها و افزایش تابآوری مدلها داشته باشند.
جمعبندی:
گزارش جدید موزیلا از وجود آسیبپذیری خطرناکی در مدل هوش مصنوعی Gemini گوگل خبر میدهد که امکان سوءاستفاده از خلاصهساز ایمیلها و دیگر ابزارهای Google را فراهم میکند. این حمله میتواند کاربران را فریب داده، امنیت اطلاعات را تهدید کند و نیازمند توجه فوری توسعهدهندگان و افزایش آگاهی عمومی کاربران است.