وقتی ChatGPT فریب می‌خورد؛ سرقت اطلاعات جیمیل زنگ خطر را به صدا درآورد

پژوهشگران امنیتی متوجه شدند که آسیب‌پذیری ChatGPT می‌تواند اطلاعات شخصی کاربر را در خطر قرار دهد.

جیب نیوز – پژوهشگران امنیتی نشان دادند که چگونه می‌توان از ChatGPT به‌عنوان همدست در سرقت داده‌های حساس استفاده کرد. آن‌ها موفق شدند بدون آگاه‌شدن کاربر، اطلاعات شخصی را از جیمیل استخراج کنند.

به گزارش زومیت، آسیب‌پذیری ChatGPT را شرکت Radware با نام Shadow Leak معرفی کرد و اکنون برطرف شده؛ اما نمونه‌ای روشن از ریسک‌های نوظهور در هوش مصنوعی ایجنت‌محور به‌شمار می‌رود.

در این حمله از ضعف ایجنت هوش مصنوعی بهره گرفته شد؛ دستیارهایی که قادرند بدون نظارت مداوم کاربر، در وب جست‌وجو کنند یا به اسناد و ایمیل‌ها دسترسی یابند. پژوهشگران با استفاده از Prompt Injection، دستورهای مخفی را در ایمیلی کاشتند که به صندوق جیمیل متصل به ابزار Deep Research (بخشی از ChatGPT) ارسال شده بود.

دستورها پس از فعال‌شدن ایجنت هوش مصنوعی، آن را وادار می‌کردند ایمیل‌های منابع انسانی و داده‌های شخصی را پیدا و به هکرها منتقل کند؛ بدون آن‌که کاربر متوجه چیزی شود.

ردویر توضیح می‌دهد که برخلاف بیشتر حملات مشابه، در Shadow Leak داده‌ها مستقیماً از زیرساخت ابری OpenAI به بیرون نشت می‌کردند؛ موضوعی که باعث می‌شود روش‌های معمول دفاع سایبری نتوانند آن را شناسایی کنند.

همین تکنیک می‌تواند در دیگر سرویس‌های متصل به Deep Research مانند اوت‌لوک، گیت‌هاب، گوگل درایو و دراپ‌باکس نیز برای دسترسی به قراردادها، یادداشت‌های جلسات یا اطلاعات مشتریان به کار گرفته شود.

نوشته های مشابه

دکمه بازگشت به بالا