تهدید جدید در پردازش تصویر ChatGPT
اخبار داغ فناوری اطلاعات و امنیت شبکهتهدید جدید در پردازش تصویر ChatGPT
محققان امنیتی یک آسیبپذیری خطرناک در قابلیتهای پردازش تصویر ChatGPT کشف کردهاند که به مهاجمان امکان میدهد از طریق تصاویر مخرب کد دلخواه را اجرا کنند. این نقص، با شناسه CVE-2025-28371، در نسخههای خاصی از مدلهای زبانی پیشرفته (LLMs) OpenAI وجود دارد و میتواند به دسترسی غیرمجاز، سرقت دادهها یا حتی کنترل سیستم منجر شود. این تهدید بهویژه برای سازمانهایی که از ChatGPT در محیطهای حساس استفاده میکنند، نگرانکننده است.
جزئیات آسیبپذیری چیست؟
-
شناسه: CVE-2025-28371
-
نوع تهدید: اجرای کد از راه دور (Remote Code Execution - RCE)
-
شدت خطر: بحرانی (امتیاز CVSS: 9.1)
-
تأثیر: مهاجمان میتوانند با بارگذاری تصاویر دستکاریشده حاوی کد مخرب، قابلیتهای پردازش تصویر ChatGPT را فریب دهند تا دستورات غیرمجاز اجرا شوند.
-
سیستمهای تحت تأثیر: نسخههای ChatGPT با قابلیت پردازش تصویر، بهویژه در محیطهای ابری و APIهای یکپارچهشده با برنامههای شخص ثالث.
چگونه این نقص کار میکند؟
این آسیبپذیری از نقص در اعتبارسنجی ورودیهای تصویری در ChatGPT ناشی میشود. مهاجمان میتوانند کد مخرب را در فرمتهای تصویری مانند PNG یا JPEG جاسازی کنند. هنگامی که ChatGPT این تصاویر را پردازش میکند، کد مخفی اجرا شده و میتواند به سرقت دادههای حساس، دسترسی به سیستمهای داخلی یا حتی نصب بدافزار منجر شود. این نقص به دلیل وابستگی روزافزون ChatGPT به یکپارچگی با APIها و برنامههای خارجی، بهویژه در بخشهای مالی و فناوری، خطرناکتر است.
وضعیت بهرهبرداری
تا ۲۰ می ۲۰۲۵، شواهد محدودی از بهرهبرداری فعال در دنیای واقعی گزارش شده است، اما وجود کد اثبات مفهوم (PoC) در انجمنهای هکری نشاندهنده احتمال بالای سوءاستفاده است. محققان هشدار دادهاند که این آسیبپذیری به دلیل سهولت جاسازی کد در تصاویر، میتواند به سرعت توسط گروههای هکری پیشرفته یا حتی هکرهای آماتور مورد بهرهبرداری قرار گیرد.
اقدامات لازم برای محافظت
OpenAI وصلهای برای رفع این آسیبپذیری منتشر کرده و به کاربران توصیه کرده فوراً سیستمهای خود را بهروزرسانی کنند. اقدامات پیشنهادی:
-
نصب وصلهها: نسخههای ChatGPT و APIهای مرتبط را به آخرین نسخه بهروزرسانی کنید.
-
فیلتر کردن تصاویر ورودی: از فایروالهای برنامه وب (WAF) برای اسکن و فیلتر کردن تصاویر ورودی استفاده کنید.
-
محدود کردن یکپارچگیها: دسترسی APIهای ChatGPT به برنامههای شخص ثالث را محدود کنید.
-
نظارت بر فعالیتها: سیستمهای تشخیص نفوذ (IDS) را برای شناسایی بارگذاری تصاویر مشکوک فعال کنید.
-
آموزش کاربران: به کارکنان آموزش دهید تا از بارگذاری تصاویر از منابع ناشناخته خودداری کنند.
چرا این تهدید مهم است؟
قابلیت پردازش تصویر ChatGPT به سازمانها امکان میدهد وظایف پیچیدهای مانند تجزیهوتحلیل اسناد یا شناسایی اشیا را خودکار کنند. بااینحال، این آسیبپذیری نشاندهنده خطرات استفاده از مدلهای هوش مصنوعی بدون اعتبارسنجی قوی است. بهرهبرداری موفق میتواند به نقض دادهها، حملات باجافزاری یا اختلال در خدمات منجر شود، بهویژه در صنایعی مانند بانکداری، مراقبتهای بهداشتی و فناوری که به شدت به هوش مصنوعی وابستهاند.
برچسب ها: MaliciousImages, هوش_مصنوعی, چت_جی_پی_تی, امنیت_سایبری, NetworkSecurity, ChatGPT, Cybercriminal, cybersecurity, Vulnerability, malware, Cyber Attacks, news